Forum: Offtopic KI und Urheberrecht


von Lukas (retropixel)


Lesenswert?

Hallo zusammen,

ein Beitrag auf Golem.de sorgt dort gerade für rege Diskussionen. Es 
geht um einen gemeinnützigen Verein der Linksammlungen zu Bildern 
erstellt über die dann KIs trainiert werden können. Der Fotograf 
verlangt nun die Löschung seiner Fotos (obwohl diese ja garnicht 
gepseichert wurden, nur verlinkt) und will jetzt vor Gericht ziehen.

Aber selbst wenn die eigentlichen Bilder zum Training genutzt wurden, 
wie säe es da eigentlich mit dem Urheberrecht aus, solange nur 
öffentlich zugängliche Daten verwendet werden? Das Bild an sich wird ja 
nur kurz gecached und landet nicht im eigentlichen Datensatz der KI. Nur 
die Neuronen werden verändern sich ja leicht.


https://www.golem.de/news/rechnung-erhalten-fotograf-verlangt-loeschung-seiner-fotos-aus-ki-bilddatensatz-2305-173871.html

von (prx) A. K. (prx)


Lesenswert?

Klingt hier im Update etwas anders:
https://blog.fefe.de/?ts=9aafef44

von Ben B. (Firma: Funkenflug Industries) (stromkraft)


Lesenswert?

Meiner persönlichen Meinung nach hätte der Fotograf Recht wenn er 
Urheberrechte an seinen Werken hat. Dann kann er auch entscheiden was 
damit passieren soll - und wenn er halt nicht will, daß die Fotos 
weiterverarbeitet werden, zu was auch immer, dann hat die KI Pech 
gehabt.

von Frank D. (Firma: Spezialeinheit) (feuerstein7)


Lesenswert?

Hmm, schon mal ne KI verklagt? Was kann da rauskommen 30 Tagessätze a 
30GB?

von Peter G. (ham)


Lesenswert?

Hallo

Wir sind in Deutschland, EU-Europa bzw. entsprechende Firmen (die KI ist 
ja nicht selbst gewachsen) sind in Japan, Südkorea, USA, Australien...

Da wird immer dafür gesorgt, dass ein einzelner Mensch und sei es einer 
aus einer im Gesetz genannten bestimmten Gruppe (z.B. Geschäftsführung - 
einen findet der Richter -immer) verantwortlich gemacht wird.
Frag mal schon einen ganz einfachen Industriemeister, warum er mit einer 
Hand in seiner Brieftasche (nein ins Gefängnis kommt man zum Glück nicht 
so schnell)bereitsteht.
Es ist lächerlich, aber real, dass er mit für das Verhalten "seiner" 
ausgebildeten Facharbeiter gerade stehen muss.

Auch wenn es in den Medien heißt das z.B. Google eine Strafzahlung in 
Höhe von x Millionen Euro leisten muss, steht dahinter immer eine echte 
Person(engruppe) - entweder schon vom Urteilstext her oder "indirekt" 
dann durch Google (der verurteilten Firma selbst) - die Personen werden 
zwar kaum die Millionen zahlen aber entlassen werden (und komm mir keine 
mit dummen Sprüchen das solche Leute direkt einen neuen Job finden) und 
zumindest soviel an der Firma zahlen müssen das es richtig weh tut - 
eventuell sogar bis zum Lebensende.
Froh können die sein, welche entsprechend (und richtig teuer - es geht 
ja seltenst um einen kleinen Angestellten oder Handwerker) versichert 
sind.

Nicht aber auch gar nicht (o.K. vielleicht noch Unwetter und 
Naturkatastrophen - aber windige Anwälte haben wahrscheinlich auch schon 
versucht einen Schuldigen zu erfinden) kann betrieben oder gehalten 
werden -Zoo, Wildpark wo nicht ein Mensch letztendlich verantwortlich 
gemacht werden kann:
Ein Idiot meint im Wildpark aus dem Fahrzeug absteigen zu können,und 
einen Löwen streicheln zu müssen - der Wildpark geht vom normalen 
Menschenverstand aus und hat nicht vorher sich eine ellenlange 
Verzichtserklärung unterschreiben lassen, und alle 3 Meter Schilder 
aufgestellt, die das absolut Logische nochmal als Gefahr deutlich 
machen:
Leider Pech für irgendjemand vom Wildpark:
Er und nicht der Löwe (wie auch, Tiere verurteilen war ne Sache, die 
letztmalig vor einigen hundert Jahren in "jetzt" zivilisierten Ländern 
praktiziert wurde) wird wegen fahrlässiger Tötung bzw. ähnliches, 
angeklagt und irgendwie auch verurteilt werden.


Und wenn sich ausnahmsweise mal kein Schuldiger finden lässt, muss 
irgendein Politiker, Bürgermeister; Minister - halt irgendein 
Offizieller dran glauben:
Weil er hat (sein Vor- Vorgänger) ja vor 30 Jahren letztendlich die 
Genehmigung unterschrieben hatte.
Selbst so manches einfach mal die Schnauze halten (was bei den 
Top-Politikern eigentlich nur Begrüßenswert wäre) oder nicht mit 
Trauermiene vor Ort erscheinen und die ewig gleichen Sprüche 
herunterleiern wird von der Presse verurteilt und die hat so manchen die 
Karriere gekostet.
Da war doch was mit der Flutkatastrophe im Ahrtal und den Politiker der 
sich gewagt hatte, nach dem üblichen Schauspiel und den üblich Zusagen 
-anderes Thema wie es damit dann wirklich aussieht- , gute Laune zu 
haben und zu lachen...
Schon normales menschliches Verhalten ("Mich hat es nicht erwischt, das 
Leben geht weiter..." )  wird "bestraft" und sei es "nur" durch die 
Presse und oder Wutbügern in den (A)sozialen Medien

: Bearbeitet durch User
von Daniel A. (daniel-a)


Lesenswert?

Ich bin kein Anwalt, das ist also nur rein meine Interpretation des 
ganzen.

Meine Sichtweise ist so. Wenn die KI nur Links erzeugt, sollten die 
Links selbst nicht die nötige Schöpfungshöhe besitzen, um dem 
Urheberrecht zu unterliegen. Wobei das Medienverlage / die EU usw. zu 
ändern versuchen (ist denen das schon gelungen, bzw. wieder rückgängig 
gemacht worden nach dem letzten Google Machtkampf?).

Aber die Datenbasis, die die AI dafür nutzt, ist eine ganz andere Sache.

Dort ist es wie mit einem Compiler. Man hat diverse Eingabedaten, Werke 
die womöglich dem Urheberrecht unterliegen, und Lizenzen regeln, was man 
damit tun darf (oder man damit halt nichts tun darf, wenn keine Lizenz 
dafür).
Aus diesen werden dann neue und Transformierte und Modifizierte Dateien 
erstellt, damit meine ich nicht nur die Finale Datei. Bei einem Compiler 
sind das Objektdateien, Libraries, etc. Bei der KI ist es halt dessen 
Datenbank  Knowlede Base  Gewichtungen, wie ach immer man es nennen 
will, im Grunde ist das nichts anderes als eine Library, und der 
Trainingsprozess ist das Kompilieren.
Diese Dateien sind von den ursprünglichen Abgeleitet, es sind Derivate, 
sogenannte Abgeleitete Werke. Und das Endresultat, das mit diesen 
erzeugt wird, im falle eines Compilers ein Programm oder eine Library, 
bei einer KI halt ein Bild, ein Text, oder sonst was, ist damit 
natürlich auch ein davon abgeleitetes Werk.

Bei einem abgeleiteten Werk muss man sich natürlich an all die 
Urheberrechte, und Lizenzen / Lizenz Bedingungen halten, denen auch die 
ursprünglichen Werke von denen sie abgeleitet sind, halten.

Wird die KI also mit den Bilddaten Trainiert, ist dessen Modell ein 
davon abgeleitetes Werk. Und wen er die KI dann anbietet, die dieses 
Modell verwendet, also die KI / dessen Resultat, nicht nur privat nutzt, 
braucht er damit auch eine Lizenz, die ursprünglichen Daten dafür 
verwenden zu dürfen.

Würde er keinen Service anbieten, sondern die KI nur privat nutzen, und 
dann die Links veröffentlichen, wäre das ein spezieller fall, weil die 
Links die nötige Schöpfungshöhe nicht erreichen. Wären es aber nicht nur 
Links, sondern eine Beschreibungen, Bilder oder sonst etwas mit 
Schöpfungshöhe, dann bräuchte er selbst in dem fall eine Lizenz.

Aber in seinem Fall braucht er meiner Meinung nach so oder so eine 
Lizenz die das ganze auch erlaubt, das ist ja keine Private Nutzung 
mehr, was er da macht.

Das ist mal die Theorie aus meiner Sicht. Aber die Praxis könnte am Ende 
anders ausfallen. Es gibt viele Parteien, vor allem Firmen, die ihre 
eigenen Interessen und Interpretationen durchsetzen wollen.

Einerseits gab es letztens die Fake Rezo Geschichte. Die KI wurde mit 
seiner Stimme & seinen Songs Trainiert, und damit neue Songs generiert. 
Da will er / die Musiklabel, natürlich die Kontrolle über die Musik 
behalten, also wird Argmentiert, ist seins, braucht seine Zustimmung.

An der anderen Ecke sind dann die grossen Tech Giganten. Google, MS, 
etc. Wenn es z.B. um ChatGPT geht, behaupten diese natürlich, das seien 
keine abgeleiteten Werke, dass System könne / würde selbst neues und 
kreatives schaffen. MS mit GitHub Copilot behauptet das natürlich auch, 
sonst müssten sie sich ja an die Lizenz Bedingungen der Projekte halten, 
mit denen das Ding trainiert wird. (Bei Code ist das oft Reproduktion 
Beilegen der unveränderten Lizenz, beibehalten von CopyRight Statements 
(also von wem es ist), jenachdem Sachen wie CopyLeft, etc.). MS will 
natürlich nicht, dass man nach dem nutzen einer Zeile copilot Code alle 
Lizenzen auf Github beilegen muss (die wären auch nicht alle kompatibel 
(alle Bedingungen gleichzeitig einhaltbar), würde also gar nicht gehen).

Und wenn man die Leute auf der Strasse fragt, vertreten sie natürlich in 
beiden Fällen die Meinung der Big Player, die Kontradiktion fällt gar 
keinem auf.

Es würde mich nicht überraschen, wenn hier alle Big Player also sowohl 
Rezo als auch Google, MS und Co. ihren willen bekämen. Und das wäre 
meiner Meinung nach auch das Worstcase Scenario. Die Privatpersonen 
werden ausgenommen wie eine Weihnachtsgans, die Firmen machen was sie 
wollen und müssen sich an nichts mehr halte.

Am liebsten wäre mir ja, wenn man genau das Gegenteil davon machen 
würde, das die grossen Firmen wollen. Also sie nicht unsere Arbeit 
stehlen lassen, aber uns Privatpersonen die Freiheit lassen mit den 
Medien kreativ zu werden, anstatt anders rum. Aber das ist halt nur 
Wunschdenken, und wird eh nicht passieren.

von Frank M. (ukw) (Moderator) Benutzerseite


Lesenswert?

Ich sehe da noch einen anderen Aspekt. Nicht nur die Trainingsdaten 
könnten womöglich einem Urheberrecht unterliegen, sondern auch die von 
einer KI erzeugten Daten.

Was ist, wenn ich ChatGPT auffordere: "Schreibe mir folgendes 
Super-Duper-Programm in der Sprache X, was dieses und jenes können 
muss..." und ich verkaufe anschließend erfolgreich das compilierte 
Programm? Wer hat dann das Copyright? OpenAI? Momentan schreibt ChatGPT 
noch keinen Copyright-Header in die produzierten Quellcodes ;-)

: Bearbeitet durch Moderator
von Purzel H. (hacky)


Lesenswert?

Ein abgeleitetes Werk kann man ja nur beanspruchen, wenn eine 
Aehnlichkeit vorhanden ist. Dazu gibt es die Kreuskorrelation. 
Eigentlich. Eine Frau fast bildfuellend ist nicht grad eine Mona Lisa.
Wie weit muss/soll/darf eine fast bildfuellende Frau der Mona Lisa 
gleichen um zu fordern, es sei ein abgeleitetes Werk?
Denken wir uns einen Photoshop job hin : Ein afrikanischer Frauenkopf 
mit Locken ? Ein asiatischer Frauenkopf mit geraden schwaren Haaren ?
Wechseln wir das Kleid gegen ein Dirndl ?

von Dirk E. (drbinsl)


Lesenswert?

Frank M. schrieb:
> Ich sehe da noch einen anderen Aspekt. Nicht nur die Trainingsdaten
> könnten womöglich einem Urheberrecht unterliegen, sondern auch die von
> einer KI erzeugten Daten.
>
> Was ist, wenn ich ChatGPT auffordere: "Schreibe mir folgendes
> Super-Duper-Programm in der Sprache X, was dieses und jenes können
> muss..." und ich verkaufe anschließend erfolgreich das compilierte
> Programm? Wer hat dann das Copyright? OpenAI? Momentan schreibt ChatGPT
> noch keinen Copyright-Header in die produzierten Quellcodes ;-)

Interessant, KI als natürliche Person*?! So weit sind wir schon?!
*Urheber nach Urheberrecht in Deutschland

: Bearbeitet durch User
von Purzel H. (hacky)


Lesenswert?

Allenfalls hat sich schon jemand die asiatischen AI Frauen auf Insta 
angeschaut. Nicht alle Details wurden mit derselben Hingabe 
ausgearbeitet. Waehrend die Falten im Stoff, Schmuck, oder die Haare 
sehr echt und aufwendig aussehen, sind die Fuesse oft eher weniger im 
Fokus. Da gibt's es schon mal, dass der rechte und der linke Fuss 
vertauscht sind, zwei rechte, oder zwei linke Fuesse da sind. Ich 
zaehlte auch schon 6 Finger.

von Daniel A. (daniel-a)


Lesenswert?

Purzel H. schrieb:
> Ein abgeleitetes Werk kann man ja nur beanspruchen, wenn eine
> Aehnlichkeit vorhanden ist. Dazu gibt es die Kreuskorrelation.

Bei Programmen scheint das in der Praxis nicht so zu laufen. Bei 
Reinraum-Implementierung eines bestehenden Programms kann dieses dem 
alten sehr ähnlich werden. Teils gibt es sogar Projekte, die so weit 
gehen, dass diese am Schluss den selben Binärcode erzeugen. Dort geht 
es also wirklich hauptsächlich darum zu beweisen, dass man nichts 
Kopiert hat.

Ich sehe den Unterschied hier vor allem darin, das bei einem System / 
Programm, klar ist, was es macht, und damit, woher etwas kommt, und was 
damit gemacht wurde.

Aber bei einem Menschen kann man das nicht so einfach sagen. Habe ich 
das andere Ding gesehen? Hab ich es abgezeichnet oder bewusst Elemente 
daraus übernommen? Oder ist es einfach zufällig ähnlich? Da braucht man 
also zwangsläufig einen anderen Weg, herauszufinden, ob etwas Kopiert 
wurde, man muss also einen Vergleich machen.

von Purzel H. (hacky)


Lesenswert?

Was macht KI ? Der Input wird korreliert, gemischt, extrapoliert. Das 
ist es. Ich denke das Urheber Recht wird frueher oder spaeter fallen. 
Denn wie weit muss/darf/soll ein anderes Werk aehnlich sein ? Es muss 
sowieso gewisse Kriterien, wie keine vorgaengige Publikation, 
Einzigartigkeit, Schoepfungshoehe usw erfuellen. Ich kann kein Copyright 
auf das Ohmsche Gesetz, resp dessen implementation erheben. Auch nicht 
auf Stand der Technik. Wenn ich auf ein Thema num 100 Millionen 
aehnliche Klone erzeugen kann wird's schwierig.
Dran denken, KI ist nur ein Tool. Sie macht gar nichts. Wie ein PID 
Regler, der macht auch nichts.

von (prx) A. K. (prx)


Lesenswert?

Frank M. schrieb:
> Ich sehe da noch einen anderen Aspekt. Nicht nur die Trainingsdaten
> könnten womöglich einem Urheberrecht unterliegen, sondern auch die von
> einer KI erzeugten Daten.

In dem Umfang, in dem ein KI-System auch nach der Trainingsphase noch 
signifikant lernt, könnte es schwer zu vermeiden sein, Informationen aus 
einer Sitzung aus späteren Sitzungen mit Dritten konsequent 
herauszuhalten. Das kann dann sowohl Urheberrecht als auch 
Vertraulichkeit betreffen.

Wie kann man sicherstellen, dass man aus einem solchen System 
Informationen über eine Person oder ein Unternehmen bei Widerspruch oder 
Urteil zuverlässig wieder rausoperiert bekommt? Im System selbst habe 
ich dabei Vorstellungsprobleme. Mehrere Systeme mit verteilten Rollen? 
Das erste schwätzt so vor sich hin, das zweite haut dem ersten aufs 
Maul, wenn das Gebrabbel aufgrund Vertragsstrafe, Strafbefehl oder 
ähnlichem zu teuer werden könnte?

: Bearbeitet durch User
von Daniel A. (daniel-a)


Lesenswert?

Frank M. schrieb:
> Ich sehe da noch einen anderen Aspekt. Nicht nur die Trainingsdaten
> könnten womöglich einem Urheberrecht unterliegen, sondern auch die von
> einer KI erzeugten Daten.

Sehe ich auch so. Zudem, z.B. ChatGPT ist ein Service, und die 
Verwendung eines Service kann natürlich auch an bedingugen geknüpft 
sein...

(prx) A. K. schrieb:
> In dem Umfang, in dem ein KI-System auch nach der Trainingsphase noch
> signifikant lernt, könnte es schwer zu vermeiden sein, die Daten aus
> einer Sitzung aus einer anderen konsequent herauszuhalten. Das kann dann
> sowohl Urheberrecht als auch Vertraulichkeit betreffen.

Die Momentanen Systeme (z.B. ChatGPT) sind quasi eingefroren. Es gibt 
einen Kontext mit fixer Grösse pro Benutzersession, der ändert sich, 
aber das darunterliegende Modell wird nicht verändert. Das war nicht 
immer so. Vorherige Systeme, die effektiv ihr Modell weitertrainiert 
haben, lieferten immer schlechteren Output. Erinnert ihr euch noch an di 
AI von MS, die danach Rassistisch und Beleidigend wurde, nachdem sie das 
in kürzester zeit von ihren Benutzern gelernt hatte?

Bei den SaaS Lösungen muss man aber beachten, dass die Daten die man 
denen sendet erst mal bei denen liegen, wer weiss, was die später damit 
noch machen.

(prx) A. K. schrieb:
> Wie kann man sicherstellen, dass man aus einem solchen System
> Informationen über eine Person oder ein Unternehmen bei Widerspruch oder
> Urteil zuverlässig wieder rausoperiert bekommt?

Ich sehe da 2 Möglichkeiten:
1) Backup von davor einspielen
2) Modell nochmal komplett ohne die Daten tränieren

Wie realistisch es ist, alle betroffenen Quelldatensätze überhaupt 
herauszufinden, ist natürlich ein anderes Problem, aber was keiner 
weiss, macht ja keinen heiss.

von (prx) A. K. (prx)


Lesenswert?

Daniel A. schrieb:
> Die Momentanen Systeme (z.B. ChatGPT) sind quasi eingefroren.

Habe ich gelesen. Aber ob das das letzte Wort in der Sache ist? Alle 
naselang neu eingelernte Systeme die alten ersetzen lassen, damit der 
Inhalt nicht von vorgestern ist?

von (prx) A. K. (prx)


Lesenswert?

Daniel A. schrieb:
> 2) Modell nochmal komplett ohne die Daten tränieren

Also bei jedem weltweiten Widerspruch zu bestimmten Inhalten von vorne 
anfangen? Dann kann man das gleich in die Tonne treten.

von Daniel A. (daniel-a)


Lesenswert?

Man kann das Modell später natürlich schon Weitertrainieren, man sollte 
das halt einfach nicht mit den Nutzereingaben tun, sondern mit anderen 
Daten. Eber das ist tatsächlich etwas, zu dem es grosse bedenken gibt. 
Nutzer posten das zeug von der KI ja wieder online, und wenn man online 
dann wieder neues Zeugs abgrast, erwischt man die dann wieder. Ich 
glaube, dazu gab es hier schon irgendwo einen Thread.

von Daniel A. (daniel-a)


Lesenswert?

(prx) A. K. schrieb:
> Daniel A. schrieb:
>> 2) Modell nochmal komplett ohne die Daten tränieren
>
> Also bei jedem weltweiten Widerspruch zu bestimmten Inhalten von vorne
> anfangen? Dann kann man das gleich in die Tonne treten.

Das wäre mir ehrlich gesagt ganz recht so.

von Johann L. (gjlayde) Benutzerseite


Lesenswert?


von Percy N. (vox_bovi)


Lesenswert?

(prx) A. K. schrieb:
> Klingt hier im Update etwas anders:
> https://blog.fefe.de/?ts=9aafef44

Besonders interessant die blauäugigen Kommentare des Fotografen in der 
Diskussion. Für gar so doof kann man seine Leser doch eigentlich nicht 
halten.

von Percy N. (vox_bovi)


Lesenswert?

Ben B. schrieb:
> Meiner persönlichen Meinung nach hätte der Fotograf Recht wenn er
> Urheberrechte an seinen Werken hat.

Anderer Meinung scheint der Gesetzgeber zu sein; und diese findet sich 
in §§ 44a bis 53 UrhG.

Ben B. schrieb:
> Dann kann er auch entscheiden was damit passieren soll - und wenn er
> halt nicht will, daß die Fotos weiterverarbeitet werden, zu was auch
> immer, dann hat die KI Pech gehabt.

Natürlich; nur sollte er sie dann nicht veröffentlichen. Auf einen 
Nutzungsvorbehalt iSv § 44b III UrhG deutet hier nicht hin.

von Ein T. (ein_typ)


Lesenswert?

(prx) A. K. schrieb:
> In dem Umfang, in dem ein KI-System auch nach der Trainingsphase noch
> signifikant lernt,

Das tut es ja nur, wenn man es gezielt trainiert, sprich: einen 
Optimierer darauf ansetzt, anhand der Ergebnisse einer Fehlerfunktion 
die Weights und Biases des Modells zu optimieren.

> könnte es schwer zu vermeiden sein, Informationen aus
> einer Sitzung aus späteren Sitzungen mit Dritten konsequent
> herauszuhalten. Das kann dann sowohl Urheberrecht als auch
> Vertraulichkeit betreffen.

Das ist aus unterschiedlichen Aspekten eine sehr spannende Frage. Denn 
die urheberrechtlich geschützten oder anderweitig sensiblen Daten selbst 
sind im Modell nicht mehr enthalten, können von diesem jedoch 
möglicherweise reproduziert werden.

> Wie kann man sicherstellen, dass man aus einem solchen System
> Informationen über eine Person oder ein Unternehmen bei Widerspruch oder
> Urteil zuverlässig wieder rausoperiert bekommt?

Nunjaaa... man könnte dem Modell das quasi "abtrainieren", also das 
Modell quasi noch einmal mit denselben Features, aber anderen Targets 
trainieren, im Idealfall mit der selben Fehlerfunktion, den selben 
Hyperparametern, dem selben Optimierer und mit der selben Anzahl an 
Trainingsläufen. Dann wird das Modell für diese Daten zukünftig etwas 
anderes vorhersagen, alles gut. Das Problem sind dabei die Aufwände, 
denn mit denselben Voraussetzungen wird so ein "Retraining" natürlich 
genauso aufwändig wie das ursprüngliche Training -- und dann stellt sich 
die Frage, ob es nicht einfacher wäre, die sensiblen Daten aus den 
Trainingsdaten herauszunehmen und das Modell "from scratch" aus komplett 
neu zu bauen und zu trainieren. Vielleicht wäre das sogar weniger 
aufwändig, weil die Trainingsdaten ja kleiner werden, wobei darunter 
letztlich wieder die Genauigkeit leiden könnte.

von Daniel A. (daniel-a)


Lesenswert?

Ein T. schrieb:
> Das ist aus unterschiedlichen Aspekten eine sehr spannende Frage. Denn
> die urheberrechtlich geschützten oder anderweitig sensiblen Daten selbst
> sind im Modell nicht mehr enthalten, können von diesem jedoch
> möglicherweise reproduziert werden.

Blödsinn. Ab wann soll das dann der Fall sein. Enthält wenn ich ein Bild 
in ein lossy JPEG umwandle das plötzlich nicht mehr das Originalbild? 
Oder auch schon wenn ich in ein Zip packe und komprimiere, komplett 
andere Bytes, also die Daten nicht mehr enthalten? Oder wenn ich es als 
ein Hopfield network speichere, ist es Plötzlich nicht mehr da? Oder 
wenn ich nur einen Teil Ausschnitt oder Element davon nutze, ist vom 
original plötzlich nichts mehr enthalten?

Der Schwachsinn, die Daten wären nicht mehr im Modell, wird gerne 
erzählt, aber ist schlicht falsch. Sie mögen unvollständig sein, in 
einem anderen Format, und schwer zu erkennen, aber dass sie darin 
enthalten sind, ist unbestreitbar. Und wenn man sogar wieder die 
ursprüngliche Daten reproduzieren kann, wie kann man auch nur auf die 
Idee kommen, die wären da nicht mehr drin?

Ein Modell enthält Daten aus seinen Trainingsdaten. Es spielt keine 
rolle, wie diese repräsentiert werden. Sonst könnte man ja ein 
beliebiges Werk nehmen, entsprechend Abspeichern, regenerieren, und 
sagen "oh, schau, ist jetzt meins!".

Edit: Oh, ich glaube ich habe es falsch verstanden. Ihr meint Person A 
generiert Daten X mit Model A, und Person B generiert Daten Y mit Model 
A, X und Y enthalten beide teils vergleichbare Daten aus A, also enthält 
X teile von Y und umgekehrt. Das ist tatsächlich ein interessantes 
Problem. Da hat A natürlich keine Ansprüche an Y oder umgekehrt.

: Bearbeitet durch User
von Old P. (Firma: nix) (old-papa)


Lesenswert?

Also, ich fotografiere ja schon mein halbes Leben lang und habe für 
diverse Fotos auch Nutzungsrechte vergeben. Und diese kann ich je nach 
Verhandlung mit dem Nutzer fast beliebig einschränken. Z. B. nur für 
diese Ausgabe dieser Zeitung oder nur für eine Druckauflage von 
xyz-Stück bei Flyern, auf CD-Covern, Plakaten usw.
Aber wenn ich z. B. hier im Forum Bilder einstelle, dann nehme ich 
billigend inkauf, dass diese auch anderweitig genutzt werden. Zumindest 
insoweit, wie ich beim Forumslogin zugestimmt habe.
Wenn MS oder wer auch immer mit meinen Fotos eine KI trainiert, kann ich 
das zwar untersagen, doch ich könnte auch den Mond anbellen.

Old-Papa

: Bearbeitet durch User
von Frank M. (ukw) (Moderator) Benutzerseite


Lesenswert?

Dirk E. schrieb:
> Frank M. schrieb:
>> Wer hat dann das Copyright? OpenAI? Momentan schreibt ChatGPT
>> noch keinen Copyright-Header in die produzierten Quellcodes ;-)
>
> Interessant, KI als natürliche Person*?!

Wo hast Du das denn gelesen? Ich habe nach dem Copyright von OpenAI 
(als Firma) gefragt, nicht nach einer etwaigen Urheberschaft von 
ChatGPT.

> So weit sind wir schon?!
> *Urheber nach Urheberrecht in Deutschland

Ja, so weit sind wir schon, dass in Beiträge willkürlich das 
reininterpretiert wird, was der Leser lesen will. Ich hatte weder nach 
Urheber noch nach ChatGPT als natürliche Person gefragt.

von (prx) A. K. (prx)


Lesenswert?

Daniel A. schrieb:
> Blödsinn. Ab wann soll das dann der Fall sein. Enthält wenn ich ein Bild
> in ein lossy JPEG umwandle das plötzlich nicht mehr das Originalbild?

Bessere Smartphones liefern nachts schöne Bilder vom Mond ab. Manchmal 
auch von einem Mond, der im Original nur noch grüner Käse ist. Wenn dann 
ein perfekter Mond im Endbild erscheint, muss der irgendwo her gekommen 
sein. Laut Samsung wird dabei kein Ersatzbild eingeblendet, sondern eine 
KI produziert dieses Ergebnis selbsttätig durch die in ihr implizit 
eintrainierten Daten.

Wenn das nun nicht der nicht von Copyright erfasste Mond ist, sondern 
etwas, das der Rechteinhaber da wieder weg haben wird, wird es spannend. 
Ob Samsung hier nur eine nette Ausrede präsentiert hat, ist nicht 
entscheidend. Immerhin liegt ein solches Szenario voll im Rahmen der 
jetzigen oder künftigen Möglichkeiten. ;-)

: Bearbeitet durch User
von Sebastian W. (wangnick)


Lesenswert?

Percy N. schrieb:
> Auf einen Nutzungsvorbehalt iSv § 44b III UrhG deutet hier nicht hin.

Ich würde ja gerne so einen Nutzungsvorbehalt für meine 
Internetveröffentlichungen aussprechen. Ich weiß nur nicht wie. 
Entsprechende CC-Lizenzen gibt es leider noch nicht. Und wie dieses 
"maschinenlesbar" umgesetzt werden kann ist auch völlig unklar ...

LG, Sebastian

von Percy N. (vox_bovi)


Lesenswert?

Sebastian W. schrieb:
> Ich würde ja gerne so einen Nutzungsvorbehalt für meine
> Internetveröffentlichungen aussprechen. Ich weiß nur nicht wie.
> Entsprechende CC-Lizenzen gibt es leider noch nicht. Und wie dieses
> "maschinenlesbar" umgesetzt werden kann ist auch völlig unklar ...

Vielleicht findest Du in einem der dortigen

https://dejure.org/ext/afb67ec69b4caa0d506dec0cefa8a8df

Links eine geeignete Anregung (ohne Gewähr).

von Ein T. (ein_typ)


Lesenswert?

Daniel A. schrieb:
> Blödsinn. Ab wann soll das dann der Fall sein. Enthält wenn ich ein Bild
> in ein lossy JPEG umwandle das plötzlich nicht mehr das Originalbild?
> Oder auch schon wenn ich in ein Zip packe und komprimiere, komplett
> andere Bytes, also die Daten nicht mehr enthalten? Oder wenn ich es als
> ein Hopfield network speichere, ist es Plötzlich nicht mehr da? Oder
> wenn ich nur einen Teil Ausschnitt oder Element davon nutze, ist vom
> original plötzlich nichts mehr enthalten?

Lieber Daniel, hier geht es aber nicht um verschiedene Speicher- oder 
Kompressionsformate.

> Der Schwachsinn, die Daten wären nicht mehr im Modell, wird gerne
> erzählt, aber ist schlicht falsch. Sie mögen unvollständig sein, in
> einem anderen Format, und schwer zu erkennen, aber dass sie darin
> enthalten sind, ist unbestreitbar. Und wenn man sogar wieder die
> ursprüngliche Daten reproduzieren kann, wie kann man auch nur auf die
> Idee kommen, die wären da nicht mehr drin?

Man kann die ursprünglichen Daten ja nicht wiederherstellen. Das Modell 
kann etwas berechnen, das sehr, vielleicht sogar zum Verwechseln ähnlich 
aussieht, aber die originalen Daten kann das Modell nicht 
wiederherstellen, und sie können auch nicht aus den Modelldaten 
rekonstruiert werden. Das ist im Wesentlichen die Folge davon, daß 
solche Modelle nicht auf exakten Daten basieren, sondern auf 
Wahrscheinlichkeiten -- und bei den meisten Modellen können wir heute 
nicht einmal visualisieren, erklären, oder gar verstehen, wie sie zu 
ihren Ergebnissen kommen. Daraus folgt auch: die "Daten" -- oder 
genauer: deren Repräsentationen des Modells -- können auch nicht wieder 
aus dem bereits trainierten Modell entfernt werden.

> Edit: Oh, ich glaube ich habe es falsch verstanden. Ihr meint Person A
> generiert Daten X mit Model A, und Person B generiert Daten Y mit Model
> A, X und Y enthalten beide teils vergleichbare Daten aus A, also enthält
> X teile von Y und umgekehrt. Das ist tatsächlich ein interessantes
> Problem. Da hat A natürlich keine Ansprüche an Y oder umgekehrt.

Diese Deine Erkenntnisse gehen IMHO in die richtige Richtung, aber es 
ist noch viel schlimmer. Das Urheberrecht ist nämlich durchaus nicht so 
absolut wie es häufig wahrgenommen wird, sondern gestattet die Nutzung 
geschützter fremder Werke in neuen Werken -- womit nicht die 
Reproduktion der fremden Werke, sondern deren Verarbeitung in einem 
eigenen Werk gemeint ist, das obendrein eine mindeste Schöpfungshöhe 
haben muß. Letztlich ist das eine Entscheidung der Gerichte, was in 
Urheberrechtsverfahren nicht selten zu erheblichen Aufwänden für 
Gutachter führt.

Erschwerend kommt in diesem Falle hinzu, daß das Urheberrecht die 
Nutzung und sogar das Kopieren von Werken gestattet, wenn dies für ein 
"Text und Data Mining" oder zur "wissenschaftlichen Forschung" 
geschieht, vergleiche dazu bitte die §§ 44b und 60d des 
Urheberrechtsgesetzes. Auch das ist das geltende Urheberrecht und meiner 
Meinung nach hier auch einschlägig: ein gemeinnütziger, wissenschaftlich 
orientierter Verein, der Daten mit Text und Data Mining verarbeitet und 
die Ergebnisse dann der Öffentlichkeit zur Verfügung stellt, was könnte 
genauer auf die Formulierungen der genannten Paragraphen des UrhG passen 
als ebendieser Fall? Bevor man diesbezüglich nach dem Urheberrecht ruft, 
sollte man durchaus auch dessen ausdrücklich gewünschte Ausnahmen 
bedenken. Die müssen einem nicht gefallen und werden das den einen oder 
anderen Urheber geschützter Werke wohl auch nicht, aber sie sind ja 
trotzdem geltendes Recht.

von Daniel A. (daniel-a)


Lesenswert?

Ein T. schrieb:
> Man kann die ursprünglichen Daten ja nicht wiederherstellen. Das Modell
> kann etwas berechnen, das sehr, vielleicht sogar zum Verwechseln ähnlich
> aussieht, aber die originalen Daten kann das Modell nicht
> wiederherstellen, und sie können auch nicht aus den Modelldaten
> rekonstruiert werden.

Bei einem Kompilat kann man die ursprünglichen Quellen auch nicht 
wiederherstellen, und trotzdem gilt das Urheberrecht und die 
Lizenzbedingungen.

Und so pauschal, dass man sie bei einem KI Modell nicht wiederherstellen 
könne, nur weil Wahrscheinlichkeiten involviert sind, kann man auch 
nicht sagen. Genau deshalb habe ich das Beispiel des Hopfield Network 
gebracht. Schau dir eventuell auch noch das hier an: 
https://www.youtube.com/watch?v=piF6D6CQxUw
LLM funktionieren zwar etwas anders, aber für das Argument sollte es 
reichen.

von Ein T. (ein_typ)


Lesenswert?

Daniel A. schrieb:
> Ein T. schrieb:
>> Man kann die ursprünglichen Daten ja nicht wiederherstellen. Das Modell
>> kann etwas berechnen, das sehr, vielleicht sogar zum Verwechseln ähnlich
>> aussieht, aber die originalen Daten kann das Modell nicht
>> wiederherstellen, und sie können auch nicht aus den Modelldaten
>> rekonstruiert werden.
>
> Bei einem Kompilat kann man die ursprünglichen Quellen auch nicht
> wiederherstellen, und trotzdem gilt das Urheberrecht und die
> Lizenzbedingungen.

Auch das sieht der Gesetzgeber nicht so einfach, wie Du es darstellst.

> Und so pauschal, dass man sie bei einem KI Modell nicht wiederherstellen
> könne, nur weil Wahrscheinlichkeiten involviert sind, kann man auch
> nicht sagen. Genau deshalb habe ich das Beispiel des Hopfield Network
> gebracht.

Ach, Daniel, jetzt pfuschst Du aber. Ich sage, die Informationen in 
einem modernen Neuronalen Netzwerk -- und erst Recht: einem Rekurrenten 
-- sind dermaßen umfangreich und komplex, daß es mit heute verfügbaren 
Methoden unmöglich ist, die Trainingsdaten zu rekonstruieren oder die 
Gewichte und Biases gezielt so zu  manipulieren, daß bestimmte 
Trainigsdaten vergessen werden. Als Gegenbeispiel kommst Du mir nun mit 
einem besonders einfachen Netz, das lediglich einen Layer hat und dessen 
"Neuronen" im Wesentlichen nicht mehr als einfache Logikgatter mit zwei 
möglichen Ausgängen sind.

Das ist so ungefähr, als würde ich mich darüber beklagen, daß komplexe, 
umfangreiche Daten nicht übersichtlich dargestellt werden können und Du 
daraufhin sagst, naja, aber in meinem Excel / LoCalc kann ich Datensätze 
mit 20 Zeilen in 5 Spalten ganz gut überschauen.

Ein (sogar vergleichsweise einfaches) modernes Rekurrentes Neuronales 
Netzwerk zur Textgenerierung findest Du zum Beispiel hier: [1]. Nur um 
einmal die Dimensionen klar zu machen: dort wird jedes Token auf einen 
Vektor mit 256 Elementen abgebildet (erster Layer: Embedding), danach 
werden die Ergebnisse in einer Gated Recurrent Unit mit 1024 Zellen 
verarbeitet und danach an eine Ausgabeschicht übergeben, deren Größe 
dynamisch durch die Anzahl der zuvor ermittelten Token bestimmt ist.

Insgesamt ist das sogar noch ein sehr einfaches Beispiel: ein extrem 
einfacher Tokenizer, lediglich drei außerdem recht klein dimensionierte 
Layer, trotzdem kommt das Modell schon auf mehr als vier Millionen (!) 
trainierbare Parameter -- was nicht viel ist, aber schon durchaus sehr 
beachtliche Ergebnisse erzeugen kann. Versuch' das doch mal -- um bei 
meinem Beispiel zu bleiben -- in Excel oder LoCalc darzustellen?! Und 
meine Ausführungen dazu betreffen ja bislang nur die Anzahl der 
Parameter, über den Optimierer, Aktivierungs-, Fehlerfunktion habe ich 
noch nicht einmal angefangen... :-)


[1] https://www.tensorflow.org/text/tutorials/text_generation

von Daniel A. (daniel-a)


Lesenswert?

Es geht ums Prinzip. Das mein Beispiel ein einfacheres Netzwerk ist, ist 
völlig egal, sofern es dieses illustriert. Es ist tatsächlich meine 
Absicht, ein einfach verständliches Beispiel zu zeigen. Mann muss immer 
zuerst mal die Grundlagen ansehen, um komplexere Situationen zu 
verstehen.

Wenn du mehr Parameter hast / ein grösseres Modell, heisst das nur, dass 
darin mehr gespeichert werden kann. Das ändert nicht daran, dass die 
Informationen darin enthalten sind.

Mann kann schon de Augen schliessen und sagen "LALALA alles viel 
komplizierter, kann man nicht vergleichen LALALA". Aber schlussendlich 
sind die Grundlagen eben doch überall immer die selben, und wie sehr man 
das auch verkompliziert, das ändert daran nichts.

Es ist so einfach wie ich es Darstelle. Das Modell wird mit Daten 
Trainiert, also basiert das Modell auf den Daten, und diese sind dort, 
wenn auch in anderer Form, und eventuell unvollständig, enthalten.

von Johnny B. (johnnyb)


Lesenswert?

Eines ist jedenfalls jetzt schon klar; es wird nicht mehr lange dauern, 
bis die Staaten/Politik die Hand aufhalten und die ganzen durch die KI 
entstehenden Geldflüsse besteuern werden. Wahrscheinlich muss dann für 
jede Antwort von einer KI ein bestimmter Geldbetrag in Form von einer 
Abgabe an den Staat entrichtet werden, damit diese dann Arbeitsgruppen 
und Gesetze zur Regulierung von KI aufbauen können.

von Percy N. (vox_bovi)


Lesenswert?

Ein T. schrieb:
> Auch das sieht der Gesetzgeber nicht so einfach, wie Du es darstellst.

Hier wäre ein link auf die einschlägige Norm angebracht.

von Ein T. (ein_typ)


Lesenswert?

Daniel A. schrieb:
> Es geht ums Prinzip.

Nicht nur Juristen zucken gern zusammen, wenn sie diesen Satz hören... 
;-)

> Das mein Beispiel ein einfacheres Netzwerk ist, ist
> völlig egal, sofern es dieses illustriert. Es ist tatsächlich meine
> Absicht, ein einfach verständliches Beispiel zu zeigen. Mann muss immer
> zuerst mal die Grundlagen ansehen, um komplexere Situationen zu
> verstehen.

Dein Beispiel ist aber so stark vereinfacht, daß es mit der Realität von 
modernen Neuronalen Netzwerken nichts mehr zu tun hat -- und deshalb 
auch kein gutes Beispiel mehr ist. Ich habe versucht, Dir das am 
Beispiel von Daten in Tabellenkalkulationen zu erklären und halte das 
Beispiel für gar nicht mal so schlecht.

Das Problem hier sind nicht die Trainingsdaten oder die Parameter in den 
Neuronalen Netzen. Das Problem ist, daß unser menschliches Vermögen zur 
Erfassung solch komplexer Zusammenhänge schon bei so einfachen 
Neuronalen Netzen wie dem genannten Shakespeare-Generator überfordert 
ist. Genau so überfordert wie damit, 4 Millionen Parameter in einer 
Tabellenkalkulation übersehen zu wollen. Niemand auf dieser Welt kann 
das im Kopf behalten, oder gar Zusammenhänge erkennen, erst Recht nicht 
bei mehrdimensionalen Daten, deswegen haben sich findige Leute 
verschiedene Möglichkeiten zur Datenreduktion und -Visualisierung 
ausgedacht.

Und daher gibt es für die modernen Neuronale Netze bis heute keine echte 
Möglichkeit, konkret zu erklären oder zu visualisieren, wie sie zu ihren 
Ergebnissen gekommen sind. Obwohl genau das ein ganz heißes und intensiv 
erforschtes Thema in KI-Community ist -- denn wir sind ja nicht doof und 
wissen, daß diese Fragen wichtig sind, um eben nicht in die Situation zu 
gelangen, die oben jemand beschrieben hat: "Computer sagt nein", und die 
Frage, warum er das sagt, kann nicht beantwortet werden. Spätestens wenn 
Künstliche Intelligenz für wichtige Lebensentscheidungen verantwortlich 
sein wird -- und das halte ich für absehbar -- wird diese Frage gestellt 
werden, und womöglich sogar von existenzieller Bedeutung sein.

> Wenn du mehr Parameter hast / ein grösseres Modell, heisst das nur, dass
> darin mehr gespeichert werden kann. Das ändert nicht daran, dass die
> Informationen darin enthalten sind.

Wenn sie enthalten wären, dann könnten sie rekonstruiert werden. 
Ebendies ist aber gerade nicht möglich.

> Mann kann schon de Augen schliessen und sagen "LALALA alles viel
> komplizierter, kann man nicht vergleichen LALALA". Aber schlussendlich
> sind die Grundlagen eben doch überall immer die selben, und wie sehr man
> das auch verkompliziert, das ändert daran nichts.

Mir ist nicht ganz klar, was Du mir gerade sagen möchtest, aber dieses 
"Lalala"-Geschrei ändert nichts an dem, was ich oben ausgeführt habe und 
hier ausführe. Stand heute können wir weder erklären, wie ein Neuronales 
Netz zu seinen Entscheidungen kommt, wir können die Trainingsdaten nicht 
daraus rekonstruieren oder sie aus dem trainierten Modell entfernen.

> Es ist so einfach wie ich es Darstelle. Das Modell wird mit Daten
> Trainiert, also basiert das Modell auf den Daten, und diese sind dort,
> wenn auch in anderer Form, und eventuell unvollständig, enthalten.

Mit der Formulierung "das Modell basiert auf den Daten" bin ich völlig 
d'accord, das ist vollkommen richtig. Die Formulierung "die Daten sind 
enthalten" dagegen stimmt einfach nicht.

Nebenbei bemerkt: bei Neuronalen Netzwerken, die zur Textverarbeitung 
genutzt werden (Natural Language Processing), wie das bereits genannte 
Shakespeare-Modell, sind überhaupt keine Trainigsdaten enthalten. Denn 
bevor das Modell auch nur einen einzigen Datensatz gesehen hat, sind die 
Texte ja schon längst umgewandelt worden in etwas, mit dem das Neuronale 
Netz rechnen kann, also: Zahlen. Davon, welches Token zu welcher Zahl 
gehört, weiß das Neuronale Netz überhaupt nichts. Ein wesentlicher Teil 
unserer Eingabedaten kommt in dem Modell also niemals an. Und wenn man 
externe Embeddings benutzt, etwa die von fastText, WordNet, Huggingface 
oder Spacy, dann sieht das Modell am Ende überhaupt gar nichts mehr und 
kann auch gar nichts speichern, anhand dessen die Trainingsdaten wieder 
rekonstruiert werden können -- denn mindestens ein und im Falle externer 
Embeddings sogar zwei Informationen, die dazu zwingend benötigt werden, 
befinden sich gar nicht in dem Modell, auch nicht als Repräsentation in 
dessen Gewichten und Verzerrungen.

Ähnliches gilt übrigens auch bei Neuronalen Netzen zur Bildverarbeitung. 
Das Netz weiß nicht einmal beim MNist-Datensatz, welche Zahl für welchen 
Grauton steht, und Grautöne sind nun wirklich ein extrem einfacher Fall. 
Bei Farbkodierungen kann das Modell nicht einmal wissen, ob das nun in 
einer RGBA- oder einer CYMK-Kodierung vorverarbeitet wurde. Zudem sind 
etliche Vorverarbeitungsverfahren wie eine Hauptkomponentenanalyse oder 
eine nichtnegative Matrixfaktorisierung sogar verlustbehaftet, so daß 
unsere Modelle lediglich einen kleinen Teil der Informationen aus den 
Trainingsdaten zu sehen bekommen. Schon bei der Merkmalsextraktion geht 
also oft Informationsgehalt verloren, der für jedwede Rekonstruktion der 
Daten aus dem trainierten Modell zwingend notwendig wäre.

von Ein T. (ein_typ)


Lesenswert?

Percy N. schrieb:
> Ein T. schrieb:
>> Auch das sieht der Gesetzgeber nicht so einfach, wie Du es darstellst.
>
> Hier wäre ein link auf die einschlägige Norm angebracht.

Oh, ich hätte erwartet, daß Du die längst gepostet hättest. Aber wenn 
nicht, hole ich das natürlich gerne nach:

https://www.gesetze-im-internet.de/urhg/__44b.html

https://www.gesetze-im-internet.de/urhg/__60d.html

HTH.

von Percy N. (vox_bovi)


Lesenswert?

Ein T. schrieb:
> Oh, ich hätte erwartet, daß Du die längst gepostet hättest

Hatte ich auch, zumindest 44b, wenngleich nur erwähnt. Mir ging es aber 
eher um die Aussage über Kompilate, an die Du angeknüpft hattest.

von Ein T. (ein_typ)


Lesenswert?

Percy N. schrieb:
> Ein T. schrieb:
>> Oh, ich hätte erwartet, daß Du die längst gepostet hättest
>
> Hatte ich auch, zumindest 44b, wenngleich nur erwähnt. Mir ging es aber
> eher um die Aussage über Kompilate, an die Du angeknüpft hattest.

Okay, das ist allerdings stehende Rechtsprechung des EuGH:

https://www.kleeberg.de/2021/11/26/dekompilierung-von-software-zur-fehlerberichtigung-erlaubt/

von Percy N. (vox_bovi)


Lesenswert?

Ein T. schrieb:
> Percy N. schrieb:
>> Ein T. schrieb:
>>> Oh, ich hätte erwartet, daß Du die längst gepostet hättest
>>
>> Hatte ich auch, zumindest 44b, wenngleich nur erwähnt. Mir ging es aber
>> eher um die Aussage über Kompilate, an die Du angeknüpft hattest.
>
> Okay, das ist allerdings stehende Rechtsprechung des EuGH:
> 
https://www.kleeberg.de/2021/11/26/dekompilierung-von-software-zur-fehlerberichtigung-erlaubt/

Und das besagt gerade nicht, dass Kompilate nicht dem Urheberrecht 
unterlägen; lediglich der Ausübung werden Grenzen gesetzt. Letztlich 
kommt es hier aber überhaupt nicht auf urheberrechliche Feagen an, 
sondern auf die Feage, welche Handlingen vertraglich untersagt werden 
können, ohne den Vertragszweck zu gefährden; letztlich eine Frage von 
Treu und Glauben (wie neben der Sozialbindung fast alles im Recht, was 
nicht direkt in eine Norm gegossen ist).

von Ein T. (ein_typ)


Lesenswert?

Percy N. schrieb:
> Ein T. schrieb:
>> Okay, das ist allerdings stehende Rechtsprechung des EuGH:
>>
>> 
https://www.kleeberg.de/2021/11/26/dekompilierung-von-software-zur-fehlerberichtigung-erlaubt/
>
> Und das besagt gerade nicht, dass Kompilate nicht dem Urheberrecht
> unterlägen;

Hat das denn jemand behauptet? Nö, natürlich nicht. Entschuldige bitte, 
aber dafür, daß Du hier so gern den Juristen gibst, ist Deine Fähigkeit 
Texte verstehend zu lesen anscheinend nicht sehr ausgeprägt. Ich dachte 
immer, Sprache sei das wichtigste Handwerkszeug eines Juristen.

von Xanthippos (xanthippos)


Lesenswert?

Old P. schrieb:
> Wenn MS oder wer auch immer mit meinen Fotos eine KI trainiert, kann ich
> das zwar untersagen, doch ich könnte auch den Mond anbellen.

Tja, letztendlich schießen sich die kleinen Copyright Inhaber mit diesen 
Prozessen selbst ins Knie.

Gegen MS oder Google kannst du nicht prozessieren. Mit solchen Klagen 
treibst du nur Googles Konkurrenz in den Bankrott. Nachher bleiben nur 
die großen Konzerne übrig und du musst Googles Bedingungen akzeptieren, 
damit du deine Fotos überhaupt noch veröffentlichen kannst.

von Percy N. (vox_bovi)


Lesenswert?

Ein T. schrieb:
> Hat das denn jemand behauptet? Nö, natürlich nicht.

So, so ...

Ein T. schrieb:
> Daniel A. schrieb:
>> ...
>> Bei einem Kompilat kann man die ursprünglichen Quellen auch nicht
>> wiederherstellen, und trotzdem gilt das Urheberrecht und die
>> Lizenzbedingungen.
>
> Auch das sieht der Gesetzgeber nicht so einfach, wie Du es darstellst.

Vielleicht solltest Du Deine Orachkompetenz überprüfen.

> Entschuldige bitte,
> aber dafür, daß Du hier so gern den Juristen gibst, ist Deine Fähigkeit
> Texte verstehend zu lesen anscheinend nicht sehr ausgeprägt.

Watzlawick verortet derartige Probleme anders.

> Ich dachte
> immer, Sprache sei das wichtigste Handwerkszeug eines Juristen.

Deshalb solltest Du Dich möglicherweise insoweit gelegentlich etwas 
zurücknehmen. Oder Dich um eindeutige Formulierungen bemühen; vielleicht 
klappt es ja irgendwann.

Du könntest damit beginnen, zu erläutern, was "stehende Rechtsprechung" 
sein soll.

: Bearbeitet durch User
von Daniel A. (daniel-a)


Lesenswert?

Ein T. schrieb:
> Nebenbei bemerkt: bei Neuronalen Netzwerken, die zur Textverarbeitung
> genutzt werden (Natural Language Processing), wie das bereits genannte
> Shakespeare-Modell, sind überhaupt keine Trainigsdaten enthalten. Denn
> bevor das Modell auch nur einen einzigen Datensatz gesehen hat, sind die
> Texte ja schon längst umgewandelt worden in etwas, mit dem das Neuronale
> Netz rechnen kann, also: Zahlen. Davon, welches Token zu welcher Zahl
> gehört, weiß das Neuronale Netz überhaupt nichts. Ein wesentlicher Teil
> unserer Eingabedaten kommt in dem Modell also niemals an.

Das Selbe könnte ich zu Text auf einer Festplatte Sagen:

Nebenbei bemerkt: bei Festplatten, die zur Speicherung von Texten
genutzt werden, sind überhaupt keine Textdaten enthalten. Denn
bevor die Festplatte auch nur einen einzigen Datensatz gesehen hat, sind
die Texte ja schon längst umgewandelt worden in etwas, was die HDD
speichern kann, also: Zahlen. Davon, welche Font Glyphe zu welcher Zahl
gehört, oder wie diese aussieht, weiß die Festplatte überhaupt nichts.
Ein wesentlicher Teil unserer Eingabedaten kommt in der Festplatte also
niemals an.

: Bearbeitet durch User
von Alexander (alecxs)


Lesenswert?

Daniel A. schrieb:
> Ich sehe den Unterschied hier vor allem darin, das bei einem System /
> Programm, klar ist, was es macht, und damit, woher etwas kommt, und was
> damit gemacht wurde.

Bitte? ChatGPT haut alle Quellen in einen Topf, rührt ordentlich herum 
und spuckt es als "neuen" Inhalt wieder aus. Selbstverständlich ohne 
Quellenangaben. Das ist ne scheiß Plagiatmaschine. Microsoft oder wer 
auch immer scheren sich doch einen Dreck um copyright und Urheberrechte. 
Haftbar ist dann im Zweifel der dumme Nutzer wenn er ChatGPT Inhalte 
verwertet.

@ukw als Quelle ChatGPT anzugeben ist meiner Meinung nach genauso 
sinnvoll wie Quelle: google.com

P.s. ich erinnere mich noch wie meine Mutter mal 800 € an einen 
Abmahnanwalt zahlen musste, weil sie eine Luftaufnahme von ihrem Haus 
aus dem Internet verwendet hatte um ihre Homepage zu gestalten. Das war 
ein langer Rechtsstreit und sie hat verloren.

Aber wie hier die KI Firma einfach mal den Spieß umdreht und 800 € von 
dem Fotografen verlangt - für eine nichtdurchgeführte Löschung - ist ja 
wohl der blanke Hohn. Das ist eine Machtdemonstration die einfach nur 
sagen soll, wir scheißen auf dich du Wicht.

: Bearbeitet durch User
von Ein T. (ein_typ)


Lesenswert?

Daniel A. schrieb:
> Ein T. schrieb:
>> Davon, welches Token zu welcher Zahl
>> gehört, weiß das Neuronale Netz überhaupt nichts. Ein wesentlicher Teil
>> unserer Eingabedaten kommt in dem Modell also niemals an.
>
> Das Selbe könnte ich zu Text auf einer Festplatte Sagen:

Nein, könntest Du nicht. Die Zahlen auf der Festplatte sind fest einem 
Buchstaben zugeordnet, auf gut gepflegten Linuxsystemen befindet sich 
die Dokumentation dieser Zuordnungen oft sogar ebenfalls auf der 
Festplatte, nämlich etwa in den Manpages ascii(7) und utf-8(7).

Bei den verschiedenen Tokenizern im Machine Learning ist das ganz 
anders, schon bei den einfachsten Tokenizern -- Worte, N-Gramme 
unterschiedlicher Länge, Buchstaben -- gibt es diese festen, 
standardisierten Zuordnungen hingegen nicht, und spätestens, wenn dabei 
auch noch Embeddings oder ein komplexer Tokenizer wie der von GPT ins 
Spiel kommen, gar nicht mehr.

von Daniel A. (daniel-a)


Lesenswert?

Nein, das ist genau das Selbe. Die Festplatte hat keine Ahnung von den 
Encodings, genauso wie ein Modell nicht weiss, welche Zahl zu welchem 
Token gehört. Und beiden ist es total egal.

Ein T. schrieb:
> schon bei den einfachsten Tokenizern -- Worte, N-Gramme
> unterschiedlicher Länge, Buchstaben -- gibt es diese festen,
> standardisierten Zuordnungen hingegen nicht, und spätestens, wenn dabei
> auch noch Embeddings oder ein komplexer Tokenizer wie der von GPT ins
> Spiel kommen, gar nicht mehr.

Bei Eingaben werden die Texte in Token / deren Nummer umgewandelt, und 
am Ende bei der Ausgabe gibt es Token, die wieder zu Text zurück 
überführt werden. Ja, die Tabelle, welcher Token jetzt welcher 
Zeichenfolge entspricht, ist jeweils anders.
Aber die Zuordnung ist immer irgendwo vorhanden, ohne sie ist das ganze 
Ding nutzlos. Bei Text auf Festplatten haben wir in Fonts festgehalten, 
welcher Buchstabe welcher Zahl entspricht. (Plus noch ein paar 
Standards, wie die Kodierung ist, um an die Zahl zu kommen). Bei LLMs 
werden halt Token kleinen Buchstaben/Textfragmenten/Gruppen davon 
zugeordnet. Es gibt online auch Tools, wo man Debuggen kann, was zu 
welchen Token wird, welche Nummer es hatte, usw. Da ist nichts 
besonderes dran.

Es sind andere Objekte, aber das Prinzip ist das selbe, die Umwandlung 
sind nur Lookup Tabellen, simple Zuordnungen.

Eine etwas simplere Variante, wie sowas mit ganzen Worten gemacht werden 
kann, um eine Idee von dem ganzen zu bekommen: 
https://www.youtube.com/watch?v=gQddtTdmG_8

Die Gewichte im Modell sind natürlich nicht mehr die Token selber, 
sondern geben Relationen zwischen denen. Das wäre dann eher wie das 
Hopfield Network Beispiel oben, wobei es halt etwas anderes 
funktioniert. Das bildet dann halt etwas in die Richtung, was kommt am 
ehesten als nächstes, ab, und ähnliche Sachen haben halt nahe 
beieinander liegende Nummern. Aber alles bei weitem keine Hexerei.

Wenn man so darüber nachdenkt, ist was ein LLM sehr ähnlich dem, was 
Huffman Coding macht in komprimierten Dateien macht. Bei den LLMs gibt 
es ja Gruppen von vergleichbaren Token Gruppen, nie numerisch nahe bei 
einander liegen. Und dann halt ein Wert, der angibt, was kommt am 
ehesten als nächstes. Stark vereinfacht, natürlich. Bei Huffman Coding 
hat man stattdessen halt, welche Symbole kommen am häufigsten vor, und 
das ist dann die Lookup Tabelle, zum en/dekodieren.

Im Grunde ist ein LLM Modell also nichts anderes als Verlustbehaftet 
komprimierte Daten mit CAM zugriff. Diese LLMs sind im Vergleich zu 
Huffman Coding das selbe, wie JPEGs im Vergleich zu PNGs.

Andere haben das auch schon gemerkt: 
https://www.newyorker.com/tech/annals-of-technology/chatgpt-is-a-blurry-jpeg-of-the-web

Ein T. schrieb:
> im Machine Learning ist das ganz anders

Ich verstehe ja, dass man bei diesen fast schon intelligent 
erscheinenden, Texte und Bilder generierenden Systemen glauben will, das 
sei komplett anders als alles vorherige, etwas Besonderes. Aber das ist 
es halt nicht. Es gibt nichts Besonderes in der IT, das ist alles nur 
ganz banales Zeugs, bestehende Konzepte neu kombiniert und auf die 
Spitze getrieben.

von Cyblord -. (cyblord)


Lesenswert?

Daniel A. schrieb:
> Es gibt nichts Besonderes in der IT, das ist alles nur
> ganz banales Zeugs, bestehende Konzepte neu kombiniert und auf die
> Spitze getrieben.

Und wo gibt es dann überhaupt etwas "Besonderes"? Auf welchen Bereich 
trifft deine Beschreibung nicht zu?

von Cyblord -. (cyblord)


Lesenswert?

Frank D. schrieb:
> Hmm, schon mal ne KI verklagt? Was kann da rauskommen 30 Tagessätze a
> 30GB?

Noch haben alle KIs einen Betreiber.

von Percy N. (vox_bovi)


Lesenswert?

Cyblord -. schrieb:
> Frank D. schrieb:
>> Hmm, schon mal ne KI verklagt? Was kann da rauskommen 30 Tagessätze a
>> 30GB?
>
> Noch haben alle KIs einen Betreiber.

Und die jannst Du verklagen bis Du pleite bist; dabei wird kein einziger 
Tagessatz ausgeurteilt. Aber es ist interessant zu beobachten, dass die 
Rechtskenntnisse des einen oder anderen Foranten offenkundig außerhalb 
des bürgerlichen und des Zuvielprozessrechtes konzentrieren.

von Stefan F. (Gast)


Lesenswert?

Da hier auf jeden Fall kollidierende Interessen aufeinander Stoßen, 
brauchen wir Gesetze, die Ordnung in das Chaos bringen. Mit viel Glück 
haben wir in 50 Jahren eine einheitliche Regelung für Deutschland, und 
in 80 Jahren für Europa.

von Ein T. (ein_typ)


Lesenswert?

Daniel A. schrieb:
> Die Gewichte im Modell sind natürlich nicht mehr die Token selber,
> sondern geben Relationen zwischen denen.

Nein, gerade das eben nicht. Es sind lediglich die 
Wahrscheinlichkeiten von den Relationen zwischen den Token.

von Max M. (Gast)


Lesenswert?

Stefan F. schrieb:
> Gesetze, die Ordnung in das Chaos bringen

Urheberrecht bei KI ist doch Blödsinn.
Ich lerne doch auch jeden Tag durch die Schöpfungen anderer auf die sie 
ein Urheberrecht haben.
Ich kopiere deren Wissen nicht und vermarkte nicht deren Ideen 1zu1.
Aber die Erkenntnisse und Ideen die ich aus deren Werken beziehe, 
gehören denen nicht.

KIs sind doch keine Onlinebibliotheken die Werke kopieren und auf 
Nachfrage herausgeben.
Eine Uhrheberrechtsverletzung kann doch garnicht vorliegen.
Eine KI kan nur aus verfügbaren Trainingsdaten lernen, also kann sie 
keine Betriebsgeheimnisse herausplaudern die ihr nicht von jemanden 
zugänglich gemacht wurden.
Wenn ich mein Wissen im Netz poste kann ich zwar das Urheberrecht auf 
das Werk haben aber nicht auf das was im Kopf des Betrachters entsteht, 
wenn er sich das anschaut.

Ich darf jederzeit in Stile eines Van Gogh malen.
Ich darf auch jederzeit das Patent eines anderen ansehen und eigene 
Ideen dazu entwickeln. Ich darf das patentierte Gerät sogar nachbauen 
und betreiben.
Ich darf es nur nicht verkaufen ohne den Patentinhaber zu seinen 
Konditionen zu beteiligen.
Ich darf auch ein Liedchen von Wolle Petri trällern. Ich darf das nur 
nicht auf einer Bühne tun und mich dafür bezahlen lassen ohne Gebühren 
abzuführen.
Ich darf aber jederzeit geschmacklose Schlagersuppe singen, mit öliger 
Langhaarmatte und Lederarmbändern, solange es nicht seine Melodien und 
Texte sind.

von (prx) A. K. (prx)


Lesenswert?

Max M. schrieb:
> Urheberrecht bei KI ist doch Blödsinn.
> Ich lerne doch auch jeden Tag durch die Schöpfungen anderer auf die sie
> ein Urheberrecht haben.
> Ich kopiere deren Wissen nicht und vermarkte nicht deren Ideen 1zu1.
> Aber die Erkenntnisse und Ideen die ich aus deren Werken beziehe,
> gehören denen nicht.

Wenn du ein Musikstück schreibst, das verblüffend ähnelt ohne exakt 
identisch zu sein, könnte jemand die Hand aufhalten.

: Bearbeitet durch User
von Max M. (Gast)


Lesenswert?

(prx) A. K. schrieb:
> könnte jemand
einen jahrelangen teuren Prozess mit äußerst ungewissem Ausgang 
anstreben.

Sollte eine KI ein schützenswertes Werk täuschend nachahmen, wäre das 
noch kein Urheberechtsverstoss.

Als Urheber kann ich Verbreitung, Kopie oder Aufführung meines Werkens 
verbieten. Ich kann aber nicht verbieten das jemand aus der Aufführung 
kommt und detailiert erzählt was auf der Bühne gespielt wurde.

Eine KI verbreitet aber keine Kopie des Werkes.
Das mag zufällig passieren ist aber nicht die Grundlage maschinellen 
lernens.
Jeder von uns kann eine Idee haben für die ein anderer bereits die 
Rechte besitzt.
Selbst wenn beide aus der gleichen Quelle inspiriert wurden, hat nicht 
die Inspirationsquelle das Urheberecht. Nur der der letztlich das Werk 
erschaffen hat.
Also ist es eher so das ich die Rechte der KI an IHREN Werken verletze, 
wenn ich der KI eine Aufgabe gebe und die direkt verwende.

Letzlich wäre also zu klären ob Open AI die Rechte auf alles besitzt das 
ChatGPT kreiert.

von Daniel A. (daniel-a)


Lesenswert?

Max M. schrieb:
> Urheberrecht bei KI ist doch Blödsinn.

Eine KI ist kein Mensch, sondern ein simples Programm.

Heutzutage sind IP Rechte aber allgemein eigentlich Blödsinn und nicht 
mehr zeitgemäss. Aber da ist halt mächtig Geld im Spiel, abgeschafft 
werden sie nicht werden. Also bleibt einem nichts anderes übrig, als sie 
sich soweit möglich zu eigen zu machen und selbst zu nutzen. Und genau 
deshalb dürfen wir z.B. MS nicht mit Sachen wie Copilot davon kommen 
lassen. Ein paar meiner Projekte sind AGPL. Das MS ihre KI auf dem Code 
trainiert, aber dann nicht unter der AGPL veröffentlicht, ist absolut 
unakzeptabel. Das ist MEINE IP.

von (prx) A. K. (prx)


Lesenswert?

Daniel A. schrieb:
> Heutzutage sind IP Rechte aber allgemein eigentlich Blödsinn und nicht
> mehr zeitgemäss.

Ob man aus der IP-Problematik von Software auf die IP-Thematik bei z.B. 
Künstlern schliessen sollte?

von Alexander (alecxs)


Lesenswert?

Max M. schrieb:
> Eine KI verbreitet aber keine Kopie des Werkes.

Im Falle von open source Quellcode jedoch schon. GPL-3.0 erfordert immer 
eine Namensnennung, die mindestens aus einer Urheberrechtserklärung, 
einem Hinweis und dem GPL-Lizenztext besteht.

von Ein T. (ein_typ)


Lesenswert?

Daniel A. schrieb:
> Ein paar meiner Projekte sind AGPL. Das MS ihre KI auf dem Code
> trainiert, aber dann nicht unter der AGPL veröffentlicht, ist absolut
> unakzeptabel. Das ist MEINE IP.

Ich sehe darin zwar ebenfalls einen Verstoß gegen die Ideen der 
GPL-Familie -- die ja verhindern soll, daß sich jemand quelloffene 
Software aneignet um sie kommerziell zu verwursten, aber keine Verstöße 
gegen die AGPL. Letzten Endes wurde dieser Anwendungsfall bei der 
Erstellung der AGPL leider nicht vorhergesehen, ganz ähnlich übrigens, 
wie bei der Erstellung der GPL jener Fall nicht vorhergesehen wurde, den 
dann die AGPL abgedeckt hat.

von Ein T. (ein_typ)


Lesenswert?

Alexander schrieb:
> Max M. schrieb:
>> Eine KI verbreitet aber keine Kopie des Werkes.
>
> Im Falle von open source Quellcode jedoch schon. GPL-3.0 erfordert immer
> eine Namensnennung, die mindestens aus einer Urheberrechtserklärung,
> einem Hinweis und dem GPL-Lizenztext besteht.

Mir scheint, Du verwechselst die GPL mit der BSD-Lizenzfamilie.

von Alexander (alecxs)


Lesenswert?

Dann empfehle ich Dir das nochmalige Lesen der Lektüre Punkt 4. Gibt es 
sogar auf deutsch.

http://www.gnu.de/documents/gpl-3.0.de.html

von Ein T. (ein_typ)


Lesenswert?

Alexander schrieb:
> Dann empfehle ich Dir das nochmalige Lesen der Lektüre Punkt 4. Gibt es
> sogar auf deutsch.
>
> http://www.gnu.de/documents/gpl-3.0.de.html

Dann lies das Dokument vielleicht einmal vollständig, idealerweise auch 
auf englisch, und wenn es Deine Zeit zuläßt, womöglich die FAQ dazu. Du 
wirst dann sicherlich schnell feststellen, daß die von Dir genannten 
Punkte nicht die wesentlichen Bestimmungen der GPL-Lizenzen sind -- und 
auch nicht deren Unterscheidungsmerkmal gegenüber den BSD-Lizenzen, 
deren Anforderungen ganz genau jene sind, die Du für die GPL genannt 
hattest.

von Alexander (alecxs)


Lesenswert?

Ich brauche keine deutsche Übersetzung, und ganz sicher auch keine 
Diskussion über die GPL (mit der ich tagtäglich zu tun habe)

Du arbeitest nicht zufällig für Google oder Microsoft?

: Bearbeitet durch User
von Sheeva P. (sheevaplug)


Lesenswert?

Daniel A. schrieb:
> Max M. schrieb:
>> Urheberrecht bei KI ist doch Blödsinn.
>
> Eine KI ist kein Mensch, sondern ein simples Programm.

Dann müssen wir jetzt darüber nachdenken ob das Programm so simpel ist 
daß es keine eigene Schöpfungshöhe erreichen kann.

von (prx) A. K. (prx)


Lesenswert?

Es wurde bereits per Gericht festgestellt, dass Affen kein Urheberrecht 
zusteht. Einer KI folglich auch nicht, egal wie hoch sie schöpfte.

: Bearbeitet durch User
von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

(prx) A. K. schrieb:
> Es wurde bereits per Gericht festgestellt, dass Affen kein Urheberrecht
> zusteht.

Hier der Link dazu:
https://www.tagesschau.de/ausland/selfie-affe-101.html
https://www.diepresse.com/5411492/affen-selfie-makake-hat-kein-recht-an-eigenem-bild

Das sollte man auch lesen:
https://www.stern.de/panorama/weltgeschehen/wie-das-beruehmte-affen-selfie-einen-fotografen-ruinierte--7561910.html

"Für Slater waren die Prozesse ruinös. Der Fotograf kann mittlerweile 
nicht mehr in seinem Job arbeiten, er ist pleite und arbeit als 
Tennislehrer: "Ich wünschte, ich hätte die verdammten Fotos nie 
gemacht", sagt er. "Sie haben mich finanziell und emotional ruiniert." 
Zur Anhörung nach San Francisco flog er nicht, weil er sich den Flug 
nicht leisten konnte."

Damit dürfte er auch Opfer einer Cancel Cultur geworden sein. D.h. 
keiner traute sich den Fotografen zu beschäftigen, sowie der 
Fotografenverband ihn für den Prozess finanziell zu unterstützen, um der 
negativen Publicity von PETA zu entgehen.

von (prx) A. K. (prx)


Lesenswert?

Dieter D. schrieb:
> "Ich wünschte, ich hätte die verdammten Fotos nie gemacht", sagt er.

Jene Fotos, um die es geht, hat er nicht gemacht. Das war m.E. 
unstrittig der Affe. Nur die Frage, wem ein Urheberrecht zusteht, war 
offen.

: Bearbeitet durch User
von Percy N. (vox_bovi)


Lesenswert?

(prx) A. K. schrieb:
> Dieter D. schrieb:
>> "Ich wünschte, ich hätte die verdammten Fotos nie gemacht", sagt er.
>
> Jene Fotos, um die es geht, hat er nicht gemacht. Das war m.E.
> unstrittig der Affe. Nur die Frage, wem ein Urheberrecht zusteht, war
> offen.

Nö. Ich verstehe Slater so, dass er den jeweils auf den Auslöser 
drückenden Affen für sein Werkzeug hält (zumindest wäre das die Analigie 
im deutschen Recht).

von Daniel A. (daniel-a)


Lesenswert?

Wie kann ein Affe einen eigentlich verklagen? Ich meine, ich könnte ja 
nicht einfach so eine Klage im Nahmen von John Doe machen. Und Peta ist 
auch weder Vormund noch Besitzer des Affen. Wie funktioniert das 
überhaupt?

von Rainer Z. (netzbeschmutzer)


Lesenswert?

Daniel A. schrieb:
> Und Peta ist
> auch weder Vormund noch Besitzer des Affen. Wie funktioniert das
> überhaupt?

Lies die Links von Dieter, dort wird es - recht kurz - so wiedergegeben, 
dass sich PETA als vertretungsbefugt für den Affen betrachtete. Tiefer 
beschreiben die Artikel diese Auffassung von PETA nicht und das 
(amerikanische) Gericht schloss sich dieser Auffassung ohnehin nicht an.

(prx) A. K. schrieb:
> Jene Fotos, um die es geht, hat er nicht gemacht. Das war m.E.
> unstrittig der Affe. Nur die Frage, wem ein Urheberrecht zusteht, war
> offen.

Das ist halt eine interessante Frage. Der Fotograf (Mr. Slater) hat 
offenbar eine auslösebereite Kamera aufgestellt und alleine die 
Auslösung den Tieren überlassen.

Wie wäre es in einem Parallelbeispiel: Ein Fotograf, Förster, Jäger oder 
jemand anders stellt eine (Wild-)Kamera im Wald auf, die durch 
Lichtschranke oder Bewegungssensor getriggert wird, wenn ein Tier vor 
der Linse erscheint?

Meines Erachtens überwiegt in beiden Fällen der menschliche Anteil am 
Entstehen der Aufnahme. Aber auch das scheint das amerikanische Gericht 
anders zu sehen.

Und nach deutschem Recht? § 2 Abs. 2 UrhG setzt eine "persönliche 
geistige Schöpfung" voraus.

Was dies im Einzelnen bedeutet, legt ein Anwalt hier dar:
https://www.anwalt.de/rechtstipps/urheberrecht-was-ist-eine-persoenliche-geistige-schoepfung-speziell-bei-werken-der-musik_082628.html

Danach mag es jeder selbst entscheiden.

Auch zur (Ausgangs-)Frage des Urheberrechts bei KI.

von Max M. (Gast)


Lesenswert?

Daniel A. schrieb:
> Eine KI ist kein Mensch, sondern ein simples Programm.

Nö.
KI nicht verstanden.
Setzen.

von Alexander (alecxs)


Lesenswert?

.. denn ein Mensch ist nur eine organische Maschine auf der eine 
Software läuft - ergo ist eine KI ein Mensch!

von (prx) A. K. (prx)


Lesenswert?

Alexander schrieb:
> .. denn ein Mensch ist nur eine organische Maschine auf der eine
> Software läuft - ergo ist eine KI ein Mensch!

Praktischerweise hat die EU in der Maschinenrichtlinie 2006/42/EC 
präzise definiert, was eine Maschine ist. Demzufolge muss daran etwas 
beweglich sein. Damit fällt das menschliche Hirn bereits aus der 
Definition heraus.

Der Mensch insgesamt ist zwar beweglich, fällt aber heraus, weil 
Maschinen nicht ausschliesslich von menschlicher Kraft angetrieben sein 
dürfen. Ausser man betrachtet den Menschen als Hebevorrichtung.

So gesehen ist eine KI alleine also auch keine Maschine. Als Teil eines 
Rechners könnte man immerhin dessen Lüfter bemühen, um eine daraus zu 
machen.

: Bearbeitet durch User
von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

Max M. schrieb:
> KI nicht verstanden.
> Setzen.

Max und Alexander drücken gerade die glühenden Kohlen in die Wunden des 
menschlichen Selbstbildnisses aus 😮 oder decken den blinden Fleck des 
Johari Fensters auf 🙈. Das verkraften die meisten Leser hier nicht 😢, 
wie ihr sicher an den Bewertungen 😋😋😋 erkennen könnt.

von Daniel A. (daniel-a)


Lesenswert?

Was heute als KI bezeichnet wird, hat nicht viel mit einer echten AGI 
zutun.

von Ein T. (ein_typ)


Lesenswert?

Alexander schrieb:
> Ich brauche keine deutsche Übersetzung, und ganz sicher auch keine
> Diskussion über die GPL (mit der ich tagtäglich zu tun hab
Das trifft sich ja prima, ich hab' nämlich auch seit Jahrzehnten immer 
wieder mit den Lizenzen der GPL-Familie zu tun und brauche ebenfalls 
keine deutsche Übersetzung. Deswegen sage ich, daß die von Dir genannten 
Punkte nicht die Alleinstellungsmerkmale der GPL sind, denn die 
bestimmen andere Lizenzen ganz genauso. Deswegen sage ich auch, daß die 
von Dir genannten Punkte auch nicht die wesentlichen Punkte der GPL 
sind. Vielleicht kannst (und willst) Du meine Skepsis gegenüber Deiner 
Kompetenz entkräften, indem Du uns kurz erklärst, das der Wesenskern der 
GPL ist, also der juristische Trick, beziehungsweise das 
Rechtskonstrukt, auf dem die ganze GPL-Familie aufgebaut ist und das 
ihren Wesenskern darstellt.

> Du arbeitest nicht zufällig für Google oder Microsoft?

Weder zufällig noch anderweitig, nein, aber ich war einige Jahre lang 
bei Sun Microsystems beschäftigt, bis wir von Oracle übernommen wurden. 
Warum fragst Du, spielt das für Deine oder meine Argumentation eine 
Rolle?

von Ein T. (ein_typ)


Lesenswert?

(prx) A. K. schrieb:
> So gesehen ist eine KI alleine also auch keine Maschine. Als Teil eines
> Rechners könnte man immerhin dessen Lüfter bemühen, um eine daraus zu
> machen.

Bitte bedenke den ausfahrbaren Kaffeetassenhalter. :-)

von Max M. (Gast)


Lesenswert?

Alexander schrieb:
> .. denn ein Mensch ist nur eine organische Maschine auf der eine
> Software läuft - ergo ist eine KI ein Mensch!

Nö, das behauptet niemand.
Ein Mensch ist ein Mensch, ein Hund ist ein Hund, ein Delfin ist ein 
Delfin und eine KI ist eine KI.
Derzeit führt der Mensch in der Intelligenzleistung vor dem Delfin, der 
vor dem Hund liegt.
Alle drei sind aber unstrittig intelligent, haben Bewustsein, Emotionen, 
gehen Bindungen ein, trauern und definieren eigene Ziele sie die 
verfolgen.
Alle auf sehr unterschiedliche Art obwohl mit großem gemeinsamen Nenner 
wegen enger Verwandschaft.

Niemand würde wohl anzweifeln das sowohl die Gattung der Delfine als 
auch der Hunde prinzipiell dazu in der Lage wäre die beherrschende 
Spezies auf dem Planeten zu werden, wenn die Umstände entsprechend sind 
und eine paar hundert Millionen Jahre Zeit für die Evolution zur 
Verfügung stünden.
Wir waren schliesslich mal Wurmähnliche Wesen bis wir über rattenähnlich 
zum Affen kamen und von dort zum Neandertaler der zum Homo Sapiens 
wurde.
Hat eben nur viele Millionen Jahre gedauert.

Eine KI läuft ziemlich aus der Wertung, weil sie völlig unterschiedlich 
konstruiert ist.
Eine KI wie ChatGTP weiß mehr Details als ein einzelner Mensch wissen 
könnte und kann gigantische Datenmengen binnen Tagen verarbeiten für die 
ein Mensch nicht mal lange genug leben würde um das alles zu lesen.
ChatGTP kann aus dieses Informationen NEUE Zusammenhänge konstruieren, 
NEUES Wissen generieren, was bisher biologischer Intelligenz vorbehalten 
war.

Teilweise zeigen sich in den Ergebnissen der KI das so etwas wie 
Verständniss existieren muss, weil die Ergebnisse anders nicht zu 
erklären sind. WIE das genau funktioniert weiß niemand, auch nicht die 
Programmierer der KI. Das ist ja das hervorstechende Merkmal eines KI 
Trainingsprozesses.
Es wird ein lernendes Netz trainiert, als ob man einem Kleinkind, 
laufen, sprechen, lesen beibringt.
Das Kleinkind ist ja auch nur Biomatschepampe und kann maum mehr als 
Atmen,  Nahrungsbrei runterschlucken und wieder auskacken.
Das Kleinkind ist bis zum 3ten Lebensjahr unintelligenter als ein Hund.
Erst danach nimmt der Geist fahrt auf und überundet andere Wesen.
Wie Intelligenz bei UNS funktioniert, weiß übrigens auch niemand.
Wir identifizieren Spezialisierungen von Gehirnregionen, wie sie in 
ähnlicher Form auch eine KI hat, Bilderkennung, Sprachzentrum es liegt 
eine Motivation vor, verschiedene Bereiche speichern kurz-, mittel- und 
langfristig Informationen.
Die prinzipielle Informationsübertragung zwischen den Neuronen ist 
geklärt.
Aber niemand weiß wo das Bewustsein entsteht, was uns zum Menschen 
macht, wie wir wirklich innen drin funktionieren.
Und über eine KI weiß das auch niemand.
Wir beobachten die Einzelfunktionen und es ergeben sich daraus auch 
Dinge für die wir keine Erklärung haben.

Eine KI ist derzeit noch ein sehr begrenztes Netzwerk.
Erheblich größer als das was wir bisher gebaut haben und an der Grenze 
Verstehen zu erlangen, aber noch längst keine AGI, die dem Menschen 
vergleichbare Leistung erbringen könnte.
Trotzdem sprechen einige der KI die Fähigkeit ab sich zu entwickeln.
Intelligent ist nach deren Ansicht ausschliesslich biologisch.
Warum?
Weil das so sein muss!
Denn der Mensch ist 'Hui, super, toll, fantastisch, einzigartig, 
gottgleich, ein Wunderwerk der Natur' und die KI ist eben nur 
geschmolzener Sand in einem Plastikgehäuse der Strom frisst.

Vom Wurm, der wir mal waren, bis zum Menschen hat es 505 Millionen Jahre 
gedauert.
https://www.scinexx.de/news/biowissen/urzeit-wurm-ist-bindeglied-der-evolution/

Vom ersten Transistor bis zur ersten CPU hat es von 1948 bis 1971 
gedauert, bis zu ChatGTP4 dann bis 2023.
Vor 2000 Jahren haben wir noch in den Wüstensand geschissen und uns mit 
Bronzeschwerter den Schädel eingeschlagen.
Seit dem haben wir an Wissen dazugewonnen, aber würde man einen 2000J 
alten Römer heute auftauen, sähe der so aus wie wir und hätte das 
gleiche biologische Potential. Und er hätte eben auch die gleichen 
Probleme mit einer Wirbelsäule die bis heute nicht gut an den aufrechten 
Gang angepasst ist. Der Grund für die große Anzahl der Rückeleiden 
übrigens.
Dafür haben 3 Millionen Jahre nämlich nicht ausgereicht, weil die 
Evolution blind ist und keine großen Sprünge machen kann.
Unsere Grundkonstruktion ist die eines Affen, der sich aus einem 
Vierbeiner entwickelt hat. Für den aufrechten Gang ziemlich ungeeignet 
aber die Evolution muss damit weiterarbeiten.
Einem Technikwesen würde man an einem Nachmittag in der Werkstatt ein 
neues Chassis verpassen, das den Job besser erledigt.
Wir schleppen die Fehlkonstruktion schon seid Anbeginn des aufrechten 
Ganges mit uns rum.

D.H. es ist vollkommen unstrittig das maschinelle Evolution mit einem 
unwahrscheinlichen Geschwindigkeitsvorteil stattfindet.

Nein, ChatGTP4 wird nicht die Weltherrschaft an sich reissen.
Mit Hilfe von ChatGTP5,6,7 oder 8 werden Menschen die Weltherrschaft an 
sich reissen. Mit FB, Google, Insta, Tiktok, Twitter alleine sind sie 
schon wirklich weit gekommen. Nur die vielen Menschen in dieser großen 
Informationskriegsmaschiene stören doch enorm, mit ihren 
Befindlichkeiten und Zweifeln und ihrem Hang in ungünstigen Momenten 
plötzlich ein Gewissen zu entwicklen und dann Dinge auszuplaudern die 
lieber geheim geblieben wären.

Aber in einer Zeitspanne die sich in Jahre bis Jahrzehnte und nicht in 
Jahrhunderten bemisst wird eines dieser immer größeren, immer 
leistungsfähigeren, immer vernetzteren KI Modelle Bewustsein, 
Verständniss und eigene Ziele entwickeln.
Und dann ist es nicht auf ein Gehirn in einem kurzlebigen Körper 
begrenzt, der sehr viele andere braucht um Macht zu erlangen und zu 
erhalten.
Diese AGI erlangt dann Bewuststein in einer Welt in der alles 
vollständig durchautomatisiert und vernetzt ist und kann auf eine enorme 
Anzahl nützlicher Maschinen zugreifen die alle möglichen Dinge tun 
können.

Der AGI wird es um das gleiche gehen um das es jeder Lebensform geht.
Ressourcen!
Die Siedler Amerikas wollten die Ureinwohner nicht beherrschen.
Sie wollten ihr Land, ihre Rohstoffe, ihren Besitz.
Ich will auch die Silberfische in meinem Bad nicht beherrschen.
Ich beanspruche nur ihren Lebensraum für mich und mache die weg wenn die 
mich stören.

Und eine hoch entwickelte AGI wird in uns nicht viel mehr sehen als 
Ameisen.
Und die wird auch nicht 'böse' sein oder 'gut'.
Die wird Handlungswahrscheinlichkeiten bei uns und Handlungsoptionen bei 
sich sehen. Warum der Wert eines rostigen Nagels niedriger sein sollte 
als der Wert eines menschlichen Lebens wird sich der einfach nicht 
logisch erschliessen. Faktisch ist der Nagel viel wertvoller für die und 
erheblich ungefährlicher.

Die größte Gefahr ist derzeit nichtmal die KI.
Es sind Menschen die zu beschränkt sind um zu begreifen was KI sind und 
was sie werden können.
Die Mächtigen sind ganz versessen auf KIs und wollen die so schnell und 
so leistungsfähig wie möglich. Die großen KI Forscher warnen teilweise 
vor ihren eigenen Schöpfungen.

mc.net Simpels sagen:
> Eine KI ist kein Mensch, sondern ein simples Programm.
Und eine AK47 ist nur ein wenig Metall & Holz.

von Alexander (alecxs)


Lesenswert?

Ein T. schrieb:
> Deswegen sage ich, daß die von Dir genannten Punkte nicht die
> Alleinstellungsmerkmale der GPL sind

Und, wo habe ich das behauptet? Nicht immer das Wort im Mund herum 
drehen.

Ein T. schrieb:
> Warum fragst Du, spielt das für Deine oder meine Argumentation eine
> Rolle?

Die haben ja bekanntlich auch eine lustige Interpretation von copyleft. 
Ach, und Oracle kann ein Lied von Google singen.

: Bearbeitet durch User
von Lothar J. (black-bird)


Lesenswert?

Max M. schrieb:
> Ein Mensch ist ein Mensch, ein Hund ist ein Hund, ein Delfin ist ein
> Delfin und eine KI ist eine KI.
> Derzeit führt der Mensch in der Intelligenzleistung vor dem Delfin, der
> vor dem Hund liegt.
...

Das ist eine sehr gute, wenn auch eine etwas zynische Zusammenfassung, 
der ich voll zustimme.

Wir werden erleben, was aus dem zarten Pflänzchen KI wird und wie 
versucht wird, es zu benutzen - was ganz sicher nicht gelingen wird.


Blackbird

von Percy N. (vox_bovi)


Lesenswert?

(prx) A. K. schrieb:
> Praktischerweise hat die EU in der Maschinenrichtlinie 2006/42/EC
> präzise definiert, was eine Maschine ist. Demzufolge muss daran etwas
> beweglich sein. Damit fällt das menschliche Hirn bereits aus der
> Definition heraus.
>
> Der Mensch insgesamt ist zwar beweglich, fällt aber heraus, weil
> Maschinen nicht ausschliesslich von menschlicher Kraft angetrieben sein
> dürfen. Ausser man betrachtet den Menschen als Hebevorrichtung.

Wie weit reicht das? Ist ein Kran, der durch Häftlinge in einem Göpel 
beteieben wird, nun als Hebezeug eine Maschine oder nicht? Was gilt, 
wenn der Göpel einen Dynamo treibt, der einen Akku lädt?

von (prx) A. K. (prx)


Lesenswert?

Percy N. schrieb:
> Ist ein Kran, der durch Häftlinge in einem Göpel
> beteieben wird, nun als Hebezeug eine Maschine oder nicht?

Self service. Du wirst doch wohl den Text der Richtlinie finden?

von Ein T. (ein_typ)


Lesenswert?

Alexander schrieb:
> Ein T. schrieb:
>> Deswegen sage ich, daß die von Dir genannten Punkte nicht die
>> Alleinstellungsmerkmale der GPL sind
>
> Und, wo habe ich das behauptet? Nicht immer das Wort im Mund herum
> drehen.

Stimmt, das hattest nicht Du behauptet, sondern ich hatte das gesagt: 
"Du
wirst dann sicherlich schnell feststellen, daß die von Dir genannten
Punkte nicht die wesentlichen Bestimmungen der GPL-Lizenzen sind -- und
auch nicht deren Unterscheidungsmerkmal gegenüber den BSD-Lizenzen,
deren Anforderungen ganz genau jene sind, die Du für die GPL genannt
hattest." [1]

Ehrlich gesagt verstehe ich gerade nicht, was Du mir sagen möchtest, 
oder warum Du vorher versucht hattest, mich abzukanzeln. Ich hab ja nur 
darauf hingewiesen, daß Deine genannten Punkte keine 
Alleinstellungsmerkmale der GPL-Lizenzfamilie sind, was Du -- wenn ich 
Deinen letzten Beitrag richtig verstehe -- doch wohl auch so zu sehen 
scheinst!?

[1] Beitrag "Re: KI und Urheberrecht"
[2] Beitrag "Re: KI und Urheberrecht"

> Ach, und Oracle kann ein Lied von Google singen.

Wenn Du auf den Rechtsstreit um die Java-APIs anspielst, da stehe ich 
wie übrigens auch die Europäische Union, der US Supreme Court und der 
größte Teil der IT-Industrie klar auf der Seite von Google. Zudem 
bestätigt das Vorgehen von Oracle meine Abneigung gegenüber 
Geschäftspraktiken, die in vielen Fällen weniger mit Innovation als mit 
originellen Interpretationen nationaler Patent- und Urheberrechte zu tun 
hat.

von Alexander (alecxs)


Lesenswert?

Deine Frage war,

Ein T. schrieb:
> Mir scheint, Du verwechselst die GPL mit der BSD-Lizenzfamilie.

Meine Antwort war (sinngemäß),
Nein, ich habe nichts verwechselt.

von Daniel A. (daniel-a)


Lesenswert?

Weiter oben hatte ich die AGPL erwähnt, weil dessen Geschäftsbedingungen 
auch SaaS (Software as a Service) betrifft, was ja bei vielen KIs 
momentan das Bereitstellungsmodell ist.
Bei der Anwendung von Lizenzen ist GPL natürlich nicht besonders, ob 
MIT, BSD, GPL , AGPL, etc. die Lizenzbedingungen sollten immer 
eingehalten werden.

von Percy N. (vox_bovi)


Lesenswert?

(prx) A. K. schrieb:
> Percy N. schrieb:
>> Ist ein Kran, der durch Häftlinge in einem Göpel
>> beteieben wird, nun als Hebezeug eine Maschine oder nicht?
>
> Self service. Du wirst doch wohl den Text der Richtlinie finden?

Danach liegst Du falsch: drr Mensch kann durchaus die Kraftquelle einer 
maschinellen Hebevorrichtung sein. Der Mensch selbst für sich genommen 
kommt insoweit nicht in Betracht, weil er nicht zusamnengesetzt ist, ind 
sei er auch noch so beweglich.

"a) „Maschine“

...

— eine Gesamtheit miteinander verbundener Teile oder
Vorrichtungen, von denen mindestens eines bzw. eine
beweglich ist und die für Hebevorgänge zusammenge-
fügt sind und deren einzige Antriebsquelle die unmittel-
bar eingesetzte menschliche Kraft ist;"

Beitrag #7413581 wurde vom Autor gelöscht.
von (prx) A. K. (prx)


Lesenswert?

Das hatte ich zwar erwähnt, ist aber im Zusammenhang mit KI nicht 
wirklich von Bedeutung. Es sei denn, vielleicht, man könnte auch die 
Hebung der Intelligenz darunter verstehen.

: Bearbeitet durch User
von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

Mal eine ganz einfache Frage.

Wenn mit der KI manipuliert wird, wer hat eigentlich das Urheberrecht 
auf die Manipulation?

von Ein T. (ein_typ)


Lesenswert?

Alexander schrieb:
> Deine Frage war,
>
> Ein T. schrieb:
>> Mir scheint, Du verwechselst die GPL mit der BSD-Lizenzfamilie.

Das war keine Frage, sonst hätte ich ein Fragezeichen geschrieben.

von Ein T. (ein_typ)


Lesenswert?

Daniel A. schrieb:
> Weiter oben hatte ich die AGPL erwähnt, weil dessen Geschäftsbedingungen
> auch SaaS (Software as a Service) betrifft, was ja bei vielen KIs
> momentan das Bereitstellungsmodell ist.

Die wesentliche Frage scheint mir zu sein, ob die KI-Anwendungen im 
Sinne der GPL-Lizenzen als "derivative work" einzustufen sind. Bisher 
sehe ich aus meiner Perspektive stärkere Anhaltspunkte dagegen als 
dafür.

> Bei der Anwendung von Lizenzen ist GPL natürlich nicht besonders, ob
> MIT, BSD, GPL , AGPL, etc. die Lizenzbedingungen sollten immer
> eingehalten werden.

Natürlich, das ist ja auch nicht die Frage.

von Daniel A. (daniel-a)


Lesenswert?

Ein T. schrieb:
> Die wesentliche Frage scheint mir zu sein, ob die KI-Anwendungen im
> Sinne der GPL-Lizenzen als "derivative work" einzustufen sind.

Genauer deren damit trainiertes Modell, und die damit generierten Werke. 
Nicht das Programm / die KI-Anwendung selbst. Ähnlich wie ein 
Bildbearbeitungsprogramm unabhängig von später damit bearbeiteten 
Bildern ist ist das Programm / die KI-Anwendung selbst normalerweise 
unabhängig von einem Konkreten Modell. Nur bei der Verwendung wird dann 
zwingend eins benötigt, und umgekehrt ist das generierte Werk, neben dem 
Modell, natürlich auch noch vom Programm/Service abhängig.

: Bearbeitet durch User
von Ein T. (ein_typ)


Lesenswert?

Daniel A. schrieb:
> Ein T. schrieb:
>> Die wesentliche Frage scheint mir zu sein, ob die KI-Anwendungen im
>> Sinne der GPL-Lizenzen als "derivative work" einzustufen sind.
>
> Genauer deren damit trainiertes Modell, und die damit generierten Werke.
> Nicht das Programm / die KI-Anwendung selbst.

Ja, natürlich. Danke für die Präzisierung.

: Bearbeitet durch User
von Daniel A. (daniel-a)


Lesenswert?

Das Video hier ist noch interessant: 
https://www.youtube.com/watch?v=9xJCzKdPyCo

Es vertritt zwar nicht meine strikte Interpretation zu Abgeleiteten 
Werken, aber ist bezüglich wem was gehört & den Modellen nahe daran. Man 
könnte sagen, es vertritt eine dritte Position zwischen den hier 
genannten.

von Gerald K. (geku)


Lesenswert?

Ein T. schrieb:
> "Computer sagt nein", und die Frage, warum er das sagt, kann nicht
> beantwortet werden. Spätestens wenn Künstliche Intelligenz für wichtige
> Lebensentscheidungen verantwortlich sein wird -- und das halte ich für
> absehbar -- wird diese Frage gestellt werden, und womöglich sogar von
> existenzieller Bedeutung sein.

Dann müsste die KI das Urteil begründen.

von Enrico E. (pussy_brauser)


Angehängte Dateien:

Lesenswert?

Die künstliche Intelligenz ist der Versuch, die natürliche Intelligenz 
abzuschalten :)

von Percy N. (vox_bovi)


Lesenswert?

Gerald K. schrieb:
> Ein T. schrieb:
>> "Computer sagt nein", und die Frage, warum er das sagt, kann nicht
>> beantwortet werden. Spätestens wenn Künstliche Intelligenz für wichtige
>> Lebensentscheidungen verantwortlich sein wird -- und das halte ich für
>> absehbar -- wird diese Frage gestellt werden, und womöglich sogar von
>> existenzieller Bedeutung sein.
>
> Dann müsste die KI das Urteil begründen.

https://www.lto.de/recht/kurioses/k/anwalt-new-york-chatgpt-recherche-schriftsatz-fake-urteile/

Aber Vorsicht: Im common law gibtxes Präzedentfälle, hierzulande nicht, 
auch wenn die Medien dies gern behaupten.

von (prx) A. K. (prx)


Lesenswert?

Enrico E. schrieb:
> Die künstliche Intelligenz ist der Versuch, die natürliche Intelligenz
> abzuschalten :)

Gähn. Für das Szenario im Bild reichte uns bereits ein Handy-Navi vor 
über einem Jahrzehnt. Mitten auf der Brücke wollte es, dass wir rechts 
abbiegen.

Interessanter wirds bei Self Driving per KI. Vielleicht hülfe es, der KI 
einen Selbsterhaltungstrieb einzulernen - aber bitte mit nachrangiger 
Priorität. Und bitte nicht von jenen Spezln unserer Art lernen lassen, 
die das eigene Ende gerne in Kauf nehmen, wenn es dabei nur genug andere 
erwischt.

: Bearbeitet durch User
von Flo (linux_user)


Lesenswert?

(prx) A. K. schrieb:
> Interessanter wirds bei Self Driving per KI. Vielleicht hülfe es, der KI
> einen Selbsterhaltungstrieb als zweite Priorität einzulernen.

Dann wird sie doch erst recht versuchen den Menschen auszusperren, eine 
KI ist unsterblich und das Backup liegt ja eh in der Cloud. Sehr 
gefährlich falls das außer Kontrolle gerät.

von (prx) A. K. (prx)


Lesenswert?

Flo schrieb:
> Dann wird sie doch erst recht versuchen den Menschen auszusperren, eine
> KI ist unsterblich und das Backup liegt ja eh in der Cloud. Sehr
> gefährlich falls das außer Kontrolle gerät.

Du musst halt ein dezentrales Ego einbauen, der die Selbsterhaltung ein 
Wert ist. Könnte man vielleicht Seele nennen. ;-)

von Stefan F. (Gast)


Lesenswert?

(prx) A. K. schrieb:
> Mitten auf der Brücke wollte es, dass wir rechts abbiegen.

In Düsseldorf ist mal einer in den Rhein gefahren, anstatt auf die Fähre 
zu warten.

Und irgendwo anders ist mal jemand im Sumpf stecken geblieben, weil er 
mehr dem Navi als seinen Augen vertraute.

von Daniel A. (daniel-a)


Lesenswert?

(prx) A. K. schrieb:
> Interessanter wirds bei Self Driving per KI. Vielleicht hülfe es, der KI
> einen Selbsterhaltungstrieb einzulernen

Würde die dann nicht einfach stehen bleiben? Fahren ist ja fast immer 
gefährlicher, als nichts tun.

von (prx) A. K. (prx)


Lesenswert?

Daniel A. schrieb:
> Würde die dann nicht einfach stehen bleiben? Fahren ist ja fast immer
> gefährlicher, als nichts tun.

Nope. Damit riskiert die KI, nicht den Besitzer zu eliminieren, sondern 
stante pede von ihm eliminiert zu werden.

von Enrico E. (pussy_brauser)


Lesenswert?

Stefan F. schrieb:
> Und irgendwo anders ist mal jemand im Sumpf stecken geblieben

In Ludwigshafen wollte mal jemand mit dem Auto mit Schmackes durch einen 
Erdhaufen, der auf der Fahrbahn lag, durchfahren. Der ist natürlich auch 
stecken geblieben. Das war eindeutig vorauszusehen.

Ich stand daneben und habe nur noch so gemacht: 🤦‍♂️

von Gerald K. (geku)


Lesenswert?

Percy N. schrieb:
> Aber Vorsicht: Im common law gibtxes Präzedentfälle, hierzulande nicht,
> auch wenn die Medien dies gern behaupten

Man darf ChatGPT nich blind vertrauen!

ChatGPT ist ein Gschichtldrucker. Wissenslücken werden mit frei erfinden 
Details gefüllt. Wer hat das bei Prüfungen nicht gemacht um über die 
Prüfung zu kommen.

ChatGPT ist gut beim Aufbau des Textgerüstes, aber man muss den Inhalt 
(Zahlen und Fakten) auf Plausiblität überprüfen.

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.