Forum: PC Hard- und Software Kann man ein S/W-Video nachträglich colorieren?


von Nach Wissen Durstender (Gast)


Lesenswert?

Hallo,

mein begrenztes Wissen bzgl. Video sagt NEIN, denn in analogen 
Graustufen sind keine Farbinformationen vorhanden. Was sagen die 
Fachleute?

Ab wann konnten Fernsehstudios o.ä. Videoaufnahmen in Farbe machen?
Und ab wann war die Technik für den privaten Anwender verfügbar?

Micha

von ArnoR (Gast)


Lesenswert?

Schau dir z.B. "Der Graf von Monte Christo" (die Verfilmung mit Jean 
Marais) an.

von E34 L. (nostalgiker)


Lesenswert?


von Peter N. (alv)


Lesenswert?

Klar kann man nachträglich colorieren, als Beispiel die alten Stan 
Laurel und Olliver Hardy-Filme.

Sieht aber etwas seltsam aus, aber leichter zu Ertragen als SW.

: Bearbeitet durch User
von Mario M. (thelonging)


Lesenswert?

Nicht wenn man mit S/W-Filmen aufgewachsen ist. Dann sind diese 
pastelligen Farben der nachkolorierten Filme schwer zu ertragen. 😂

von Dick und Doof (Gast)


Lesenswert?

Wir sind nur in schwarz und weiß richtig zu genießen.

von Peter N. (alv)


Lesenswert?

Mario M. schrieb:
> Nicht wenn man mit S/W-Filmen aufgewachsen ist. Dann sind diese
> pastelligen Farben der nachkolorierten Filme schwer zu ertragen. 😂

Als Kind hatten wir auch nur einen SW-Fernseher, sollte also gewohnt 
sein.

Allerdings fehlt beim SW-Sehen die Farbdimension, was was das Sehen sehr 
anstrengt. Diese seltsamen Pastelltöne erleichtern das Sehen etwas.

von NNN (Gast)


Lesenswert?

Es gibt da was mit neuronalen Netze.

von Lutz Locus (Gast)


Lesenswert?

Nach Wissen Durstender schrieb:

> mein begrenztes Wissen bzgl. Video sagt NEIN, denn in analogen
> Graustufen sind keine Farbinformationen vorhanden. Was sagen die
> Fachleute?

Natürlich ist in Graustufen Farbinformation enthalten, nur halt nicht 
umkehrbar eindeutig. Sensoren zeichnen prinzipiell nur Graustufen auf, 
erst durch ein Farbfilter davor kann man das ergebniss colorieren:

https://de.m.wikipedia.org/wiki/Bayer-Sensor

Nachkolerierte SW-Filme gab es spätestens seit den Achtzigern, 
beispielsweise: 
https://de.wikipedia.org/wiki/Ist_das_Leben_nicht_sch%C3%B6n%3F#Nachcolorierung 
von 1986 .



> Ab wann konnten Fernsehstudios o.ä. Videoaufnahmen in Farbe machen?
> Und ab wann war die Technik für den privaten Anwender verfügbar?

In der Privatwirtschaft ist jeder Anwender privat. Farbaufnahmen konnte 
man bereits in den dreißigern machen, der erste Farbfilm datiert von 
1935. Das Patent für die Farbbildröhre wenig später 1938.

von tut nix zur Sache (Gast)


Lesenswert?

Für Fotos gibts da auch Web-Dienstleister dafür, sieht aber teilweise 
noch weit weg von 'gut' aus. Im Photoshop gibts auch ein glaube mehr 
oder weniger kostenloses Plugin von Adobe, da siehts sogar noch 
schlimmer aus (Stand: meine Ausprobierung von vor 2 Monaten).

-> also ja, gibt wohl was, taugt aber nicht wirklich (imho)

von Peter N. (alv)


Lesenswert?

tut nix zur Sache schrieb:
> Im Photoshop gibts auch ein glaube mehr
> oder weniger kostenloses Plugin von Adobe, da siehts sogar noch
> schlimmer aus (Stand: meine Ausprobierung von vor 2 Monaten).

Ich weiß nicht, ob mit Photoshop, aber ich habe schon von Hobbyisten 
nachkolorierte Bilder gesehen, die sahen hervorragend aus, kaum von 
echten Farbaufnahmen zu unterscheiden.

von mIstA (Gast)


Lesenswert?

Peter N. schrieb:
> aber ich habe schon von Hobbyisten

Was ein echtes Hobby ist, dafür nimmt man sich halt die Zeit, die es 
benötigt um zum gewünschten Ergebnis zu kommen; da ist einfach der Weg 
das Ziel.

> nachkolorierte Bilder gesehen, die sahen hervorragend aus,
> kaum von echten Farbaufnahmen zu unterscheiden.

Gibt sogar Leute, die malen mit MS-Paint pixelweise fotorealistische 
Bilder.

von Dieter (Gast)


Lesenswert?

Das macht man heute mit KI-Bilderkennung und ergänzt dann die Farben. 
Das funktioniert zwar nicht zu 100%, aber der manuelle 
Bearbeitungsaufwand reduziert sich erheblich.

von Nop (Gast)


Lesenswert?

Peter N. schrieb:

> Als Kind hatten wir auch nur einen SW-Fernseher

Damals(tm) zu meiner Zeit war sogar das Radio in SW!!!1111

von Robert K. (Gast)


Lesenswert?

Dieter schrieb:
> Das macht man heute mit KI-Bilderkennung

https://palette.fm/

von mIstA (Gast)


Lesenswert?

Nach Wissen Durstender schrieb:
> mein begrenztes Wissen bzgl. Video sagt NEIN, denn in
> analogen Graustufen sind keine Farbinformationen vorhanden.

Mein begrenztes Wissen bzgl. Video sagt, daß letztlich jedes Video nur 
eine Abfolge von (sehr vielen) einzelnen Bildern, die heutzutage 
(zumindest wenn sie Teil eines Videos sind) ihrerseits wiederum nur eine 
Ansammlung von einzelnen Pixeln sind; folglich braucht man nur in jedem 
einzelnen Bild, jeden einzelnen grauen Pixel durch einen solchen in der 
richtigen Farbe ersetzen und anschließend all die Bilder wieder zu einem 
Video zusammensetzen…

Klingt nach viel Arbeit? - Klar isses auch, wenn man das alles händisch 
machen muß; so wie es auch einiges an Arbeit ist, jedes einzelne Bild 
eines Zeichentrick-Films händisch zu zeichnen.


> Was sagen die Fachleute?

Die sagen gar nix und machens einfach; und das schon seit Jahrzehnten 
und anfangs tatsächlich wohl in mühsamer Handarbeit.

von Andreas M. (andreas_m62)


Lesenswert?

Wie erkennt man an der Graustufe den Farbton?
Die Farbe konnte doch schon bei der Aufnahme in SW
heller oder dunkler gewesen sein.
Außerdem gibt es doch genug verschiedene Farbtöne,
die den gleichen Grauton erzeugen.
Hat man früher wirklich jedes einzelne Filmbild von Hand nachkoloriert?

: Bearbeitet durch User
von Blechbieger (Gast)


Lesenswert?

Andreas M. schrieb:
> Wie erkennt man an der Graustufe den Farbton?
> Die Farbe konnte doch schon bei der Aufnahme in SW
> heller oder dunkler gewesen sein.
> Außerdem gibt es doch genug verschiedene Farbtöne,
> die den gleichen Grauton erzeugen.

Gar nicht, das ist intelligentes Raten. Z.B. wenn der Cowboy erkennbar 
eine Jeans an hat war die höchstwahrscheinlich blau, der Grauton 
bestimmt dann wie dunkel das Blau war.

von Nano (Gast)


Lesenswert?

Nach Wissen Durstender schrieb:
> Hallo,
>
> mein begrenztes Wissen bzgl. Video sagt NEIN, denn in analogen
> Graustufen sind keine Farbinformationen vorhanden. Was sagen die
> Fachleute?
>

Klar kann man:
Berlin 1920
https://www.youtube.com/watch?v=OBfFWnKM-mQ

Paris 1920
https://www.youtube.com/watch?v=mgVl6Yk4itw

Wien 1906
https://www.youtube.com/watch?v=ILznJfsPGYg

San Francisco 1906
https://www.youtube.com/watch?v=sHkc83XA2dY


Die Farbinformationen muss man anhand von bekanntem hinzufügen und das 
ganze dann am Computer entsprechend einfärben.

Scheinbar geht das auch mit KI Unterstützung:
München Oktoberfest 1920
https://www.youtube.com/watch?v=nX186hzKMZY

> Ab wann konnten Fernsehstudios o.ä. Videoaufnahmen in Farbe machen?
> Und ab wann war die Technik für den privaten Anwender verfügbar?
>
> Micha

Das solltest du recht leicht selber herausfinden können.

von Nano (Gast)


Lesenswert?

Andreas M. schrieb:
> Wie erkennt man an der Graustufe den Farbton?

Man macht es anhand vom Bekannten.
Man weiß das Holz in der Regel braun ist, also ist ein Holzfass braun zu 
colorieren. Nimmt man eine Vorlage, dann weiß man ungefähr, welche 
Brauntöne man nehmen kann, so dass es plausibel aussieht.

Bei Gebäuden kann man anhand dem Baumaterial erkennen, welche Farbe das 
sein muss. Das funktionierte zumindest früher, als man noch nicht die 
Häuser mit bunten Farben anmalte.

Eine 1:1 Abbildung wird das logischerweise aber nie werden, es wird nur 
so plausibel wie möglich, wenn man es gut machen will.

Wenn man also in einem Karnevalsfest eine Person hat, die sich damals 
hellgrün angemalt hat, dann wird man die in der Schwarzweißaufnahme so 
wie man es gewohnt ist, mit bekannten Hauttönen einfärben. Die 
Information, dass die damals hellgrün herumlief, ist verloren gegangen.

von Andreas M. (andreas_m62)


Lesenswert?

Aber du weißt das doch noch?

:-D

von Andreas M. (andreas_m62)


Lesenswert?

Hier mal ein schönes Beispiel.
Eine nachkolorierte Straßenbahnmitfahrt durch Leipzig 1931:

https://www.youtube.com/watch?v=CETIdLkJM4k

von rodnas (Gast)


Lesenswert?

Schwarz-weiß hat Charakter coloriert nur Schleim.

von Andreas M. (andreas_m62)


Lesenswert?

Hektik ging damals anders.

von Andreas M. (andreas_m62)


Lesenswert?


von c-hater (Gast)


Lesenswert?

Nach Wissen Durstender schrieb:

> mein begrenztes Wissen bzgl. Video sagt NEIN, denn in analogen
> Graustufen sind keine Farbinformationen vorhanden.

Das ist (mit kleinen Einschränkungen) wirklich so. Genau deswegen gibt 
es den Vorgang des "colorierens", den du bereits im Topic verwendet 
hast. Eine der zwei wesentlichen Operationen des "colorierens" ist die 
Vorgabe eines Farbwertes für einen bestimmten Bildbereich. Der andere 
ist, das Bild überhaupt erstmal sinnvoll in Bereiche zu zerlegen. Das 
ist der bei weitem kompliziertere Teil...

> Ab wann konnten Fernsehstudios o.ä. Videoaufnahmen in Farbe machen?

Nun, seitdem die entsprechende Technik als Handelsware verfügbar war. 
Logisch, oder?

> Und ab wann war die Technik für den privaten Anwender verfügbar?

Seitdem es für den billig genug wurde. Auch wieder: logisch, oder?

Trollalarm!

von Nach Wissen Durstender (Gast)


Angehängte Dateien:

Lesenswert?

Blechbieger schrieb:
> Andreas M. schrieb:
>> Wie erkennt man an der Graustufe den Farbton?
>
> ... wenn der Cowboy erkennbar
> eine Jeans an hat war die höchstwahrscheinlich blau ...

... dann hat man sich die Handlung des Cowboyfilmes angesehen, um zu 
bestimmen, wer gut und wer böse ist. Dann hatte man schon mal die Farbe 
der Hüte. Denn der Gute (John Wayne) hatte immer einen weißen Hut und 
die Schurken hatten IMMER schwarze Hüte. Ziemlich einfache Welt, die 
einem damals verkauft wurde.

Habe meine Frage wohl etwas unglücklich formuliert. Eine einzelne 
Fotografie (oder Einzelbilder eines Films) mittels stundenlanger oder 
tagelanger manueller Verfahren zu colorieren, war nicht meine 
eigentliche Fragestellung. Ich dachte eher daran, dass man ein S/W-Video 
wo durchlaufen lässt und nach einer Tasse Kaffee hat man ein perfektes 
Ergebnis vorliegen. So verhält es sich offensichtlich nicht.

@Nostalgiker: Besten Dank für deinen ersten Link, weiterführende Links 
brachten Licht ins Dunkel:

"Dana Keller, Grafiker und Archivar aus Boston in Massachusetts lädt die 
Aufnahme ins Bildbearbeitungsprogramm seines Computers. Mit einem 
Wacom-Tablett, einer Art Flachbildschirm, und einem Spezialstift wird er 
die folgenden Stunden daran arbeiten. Pixel für Pixel, Quadratzentimeter 
für Quadratzentimeter. Zwei ganze Tage lang. Erst dann ist er mit dem 
Ergebnis zufrieden."

"Auch Marina Amaral , 22, ist überzeugt, dass es möglich ist, "extrem 
realistische Bilder zu erzeugen". Es ist ihr Beruf - die in Brasilien 
lebende Künstlerin färbt Schwarz-Weiß-Aufnahmen ein und begeistert sich 
für Geschichte und Photoshop: "Alle meine Bilder durchlaufen einen 
langen Prozess der Erforschung. Erst dann bin ich in der Lage, einige 
der Hauptfarben zu identifizieren. Es gibt keine Software, die alles 
automatisch macht - anders, als viele Leute denken."

Das digitale Kolorieren, räumt sie ein, hat allerdings Grenzen. 
Entscheidend sei die Qualität des Originals. Die ursprüngliche 
Fotografie sollte keine starken Kontraste aufweisen, besser eine breite 
Palette mittlerer Grauwerte. Aber auch dann liefern analoge Aufnahmen 
keine Farbinformationen mit - es gibt keinen standardisierten 
Rückschluss von einem bestimmten Grauton auf die Originalfarbe."

Der letzte Satz war das, was ich wissen wollte.

https://www.spiegel.de/geschichte/nachkolorierte-schwarzweiss-fotos-eine-neue-dimension-a-1098796.html

von Nach Wissen Durstender (Gast)


Lesenswert?

c-hater schrieb:
> Trollalarm!

Blödmann, geh wo anders spielen.

von Andreas M. (andreas_m62)


Lesenswert?

Ja, mal dir die Welt, wie sie dir gefällt.

von Mario M. (thelonging)


Lesenswert?

Nach Wissen Durstender schrieb:
> Ich dachte eher daran, dass man ein S/W-Video wo durchlaufen lässt und
> nach einer Tasse Kaffee hat man ein perfektes Ergebnis vorliegen.

Nichts einfacher als das. Du musst nur folgende Formel nach R, G und B 
umstellen:
1
 y = 0.3 · r + 0.59 · g + 0.11 · b

von c-hater (Gast)


Lesenswert?

Mario M. schrieb:

> Nichts einfacher als das. Du musst nur folgende Formel nach R, G und B
> umstellen:
1
 y = 0.3 · r + 0.59 · g + 0.11 · b

Ich bin ziemlich sicher, dass dieser verfickte Traffic-Troll diesen 
Zusammenhang längst kennt und auch sehr wohl über das Problem der 
Nicht-Eineindeutigkeit Bescheid weiß. Ich könnte sogar mit einiger 
Sicherheit angeben, unter welchen Pseudos dieses Arschloch sonst noch so 
auftrat (mit ähnlichem Intentionen).

Das ist halt nur einer dieser vermaledeiten Traffic-Trolls. Was mir 
immer unklar bleiben wird: was haben diese Typen davon? Wichsen die sich 
einen und die Intensität des Orgasmus steigt mit der Länge des 
generierten Threads?

Oder werden die vom Site-Betreiber dafür bezahlt? Das würde immerhin 
wenigstens einen wirtschaftlichen Sinn ergeben.

von Lutz Locus (Gast)


Lesenswert?

Einfärben ist simple, das ist so easy, das schafft man nahezu täuschend 
echt. Stichwort Galton-Brett:
https://www.youtube.com/shorts/tJOTAou0fzw

von Lutz Locus (Gast)


Lesenswert?

Oder man versucht einen normalen Film so aussehen zu lassen wie 
nachträglich coloriert: Rotoskopie.
Bspw. A scanner darkly, 2006 https://youtu.be/hkjDUERgCQw?t=49

von Schlaumaier (Gast)


Lesenswert?

Nach Wissen Durstender schrieb:
> Ich dachte eher daran, dass man ein S/W-Video
> wo durchlaufen lässt und nach einer Tasse Kaffee hat man ein perfektes
> Ergebnis vorliegen. So verhält es sich offensichtlich nicht.

Eigentlich schon. Es muss nur eine große Tasse sein ;)

Normal macht man das so. Man definiert eine Farbpalette von 254 Farben + 
weiß + Schwarz.

Nun tauscht man per Software die passenden Pixel aus. Danach geht man 
mit Weichzeichner drüber und das ganze symmetrisch zu machen. Wobei 
meist dieser "Pastel"-Effekt auftritt.

Je nach Algorithmus entsteht dann ein brauchbarer Film.

Hier sind z.b. einige Tipps wie man das mit FREEWARE machen kann.

https://www.slashcam.de/forum/viewtopic.php?t=21169&p=79173&PageSpeed=noscript

Habe ich aber nie probiert.

von loeti2 (Gast)


Lesenswert?

Naja man muß nur eine Palette mit 256 Farbwerten zu definieren die zu 
den 256 Graustufen passt und dann ist es eine einfache Sache :)

von Lutz Locus (Gast)


Lesenswert?

Schlaumaier schrieb:
> Normal macht man das so. Man definiert eine Farbpalette von 254 Farben +
> weiß + Schwarz.

Ich hab den Eindruck das sind weniger Farben und die Wechseln auch recht 
heftig in der Bewerbung. Ist auch die Frage, ob das SW-Material 256 
Abstufungen hergibt.

Da mal ne Nachkoleration eine Orginals von 1910: 
https://youtu.be/LIiK3rH2hXc?t=79  wind icj reichlich unnatürlich ins 
Farbschema: "Whüstenkhaki" gedrückt.

Und da mal ne echte Ferbaufnahme ohne Computer: 
https://youtu.be/CoV_DYIjEWw?t=269

von Schlaumaier (Gast)


Lesenswert?

Lutz Locus schrieb:
> Ist auch die Frage, ob das SW-Material 256 Abstufungen hergibt.

Das tut es IMMER.  8 Stufen sind zu wenig.Und 1 Stufe fg löl.


Lutz Locus schrieb:
> Ich hab den Eindruck das sind weniger Farben und die Wechseln auch recht
> heftig in der Bewerbung.

Das ist das selbe Problem wie bei drehen eines Filmes. Da muss der 
Beleuchter auch bei jeder Scene seine Lampen neu einstellen. Hier ist es 
so, das du die Palette nach jeder Scene /Perspektive neu anpassen musst.

Stell dir einfach 2 Scenen im Krimi vor.

Die schöne Lady liegt Mittags am Strand.  Wichtigste Farben wären dann 
Blau + beige.

Nachts ist die Lady in einer alten Kneipe. Wichtigste Farben sind nun 
Brauntöne.

Nachcolorieren ist eine saumässige Arbeit selbst mit KI und Co.

von Lutz Locus (Gast)


Lesenswert?

Schlaumaier schrieb:
> Das ist das selbe Problem wie bei drehen eines Filmes. Da muss der
> Beleuchter auch bei jeder Scene seine Lampen neu einstellen. Hier ist es
> so, das du die Palette nach jeder Scene /Perspektive neu anpassen musst.

Da mal ein colorierter Film, bei dem eigentlich der Beleuchter für 
Konstanz gesorgt hat, sit trotzdem stark schwankend in de 
Nachbearbeitung:
https://youtu.be/Be955EMr13o?t=85

Hinzukommt, das für Schwarz-Weiss Aufnahmen grünes Make-Up verwendet 
wurde, um mehr Helligkeit reinzubringen. Das willst natürlich nicht auf 
der colorierten Fassung haben.

von tut nix zur sache (Gast)


Lesenswert?

Peter N. schrieb:
> tut nix zur Sache schrieb:
>> Im Photoshop gibts auch ein glaube mehr
>> oder weniger kostenloses Plugin von Adobe, da siehts sogar noch
>> schlimmer aus (Stand: meine Ausprobierung von vor 2 Monaten).
>
> Ich weiß nicht, ob mit Photoshop, aber ich habe schon von Hobbyisten
> nachkolorierte Bilder gesehen, die sahen hervorragend aus, kaum von
> echten Farbaufnahmen zu unterscheiden.

Durchaus möglich, per Hand lassen sich etliche Sachen korrigieren und 
richtig machen. Die Ergebnisse von die Adobe's "NeuralFilters" (der 
fairerweise dazu gesagt, wohl noch Beta-Status ist), kann man halt 
vergessen.

Hatte das mit Scans alter Sepia-Bildern einer Plattenkamera probiert, 
Ergebnis war Grütze. Auch ne Wandlung nach Monochrom mit GoogleNik und 
auch ohne war für die Katze.

Deswegen: aktuell find ich den Hype um die AI-Filter noch überzogen, 
zumindest für ernstgemeinte Sachen.

Vielleicht funktionieren die Luminar-Programme da mittlerweile besser, 
solchen Schnulli wie Himmel durch was anderes zu ersetzen konnte es ganz 
gut. - könnte vielleicht mal noch nen Versuch wert sein.

von Christian B. (casandro)


Lesenswert?

Also abgesehen von den vielen Verfahren mit denen man "realistische" 
Farbe hinzurechnet gibt es auch ganz klassisch die "Colourizer".

Das waren Geräte welche das geklemmte Videosignal durch ein paar 
Komparatoren schickten und es somit in diskrete Bereiche aufteilten 
(ähnlich der A/D-Wandlung per PCM).

Dann konnte man jede der Helligkeitsstufen ein anderes Farbsignal 
zuweisen. Das Ergebnis war dann natürlich überhaupt nicht realistisch, 
aber halt künstlerisch verfremdet.

Man hat das auch bei analogen Graphikcomputern gemacht um da Farbe zu 
generieren, hier ein Beispiel:
https://youtu.be/SLdhGK_E0eA?t=31

von Yalu X. (yalu) (Moderator)


Lesenswert?

Schlaumaier schrieb:
> Normal macht man das so. Man definiert eine Farbpalette von 254 Farben +
> weiß + Schwarz.
>
> Nun tauscht man per Software die passenden Pixel aus.

Das funktioniert überhaupt nicht, weil der gleiche Grauwert je nach
Position im Bild völlig verschiedene Farben repräsentieren kann. Bspw.
könnte ein hellgraues Pixel in der S/W-Aufnahme zum blauen Himmel, zu
einer gelben Zitrone oder zu einem rosaroten Schweinchen gehören. Eine
Kolorierung der Aufnahme kann nur funktionieren, wenn die KI die Objekte
Himmel, Zitrone und Schweinchen als solche erkennt. Bei der schier
unendlichen Zahl von Objekttypen in der realen Welt ist die halbwegs
zuverlässige Erkennung durch eine KI nach dem derzeitigen Stand der
Technik aber kaum möglich.

Lutz Locus schrieb:
> Da mal ne Nachkoleration eine Orginals von 1910:
> https://youtu.be/LIiK3rH2hXc?t=79  wind icj reichlich unnatürlich ins
> Farbschema: "Whüstenkhaki" gedrückt.

Wenn sich die KI nicht sicher auf eine bestimmte Farbe festlegen kann
(was aus den o.g. Gründen fast immer der Fall ist), entscheidet sie sich
für eine, die statistisch gesehen etwa in der Mitte aller real
vorkommenden und nach Häufigkeit gewichteten Farben liegt, und das sind
eben die Brauntöne von khaki bis dunkelbraun, je nach Helligkeit der
entsprechenden Bereiche in der S/W-Aufnahme.

von Andreas M. (andreas_m62)


Lesenswert?

Yalu X. schrieb:
> Wenn sich die KI nicht sicher auf eine bestimmte Farbe festlegen kann
> (was aus den o.g. Gründen fast immer der Fall ist), entscheidet sie sich
> für eine, die statistisch gesehen etwa in der Mitte aller real
> vorkommenden und nach Häufigkeit gewichteten Farben liegt, und das sind
> eben die Brauntöne von khaki bis dunkelbraun, je nach Helligkeit der
> entsprechenden Bereiche in der S/W-Aufnahme.

Das schadet den alten Aufnahmen bei der Nachkolorierung nicht.
Dann entsteht der Sepia-Effekt,
wie eben bei allem, was vergilbt ist.

von Yalu X. (yalu) (Moderator)


Lesenswert?

Andreas M. schrieb:
> Das schadet den alten Aufnahmen bei der Nachkolorierung nicht.
> Dann entsteht der Sepia-Effekt,
> wie eben bei allem, was vergilbt ist.

Schon, aber Ziel der Nachkolorierung ist ja eigentlich, den Film
moderner und nicht noch älter als die S/W-Aufnahme aussehen zu lassen.

von Farb Ig (Gast)


Lesenswert?

Hallo

Andreas M. schrieb:
> Das schadet den alten Aufnahmen bei der Nachkolorierung nicht.
> Dann entsteht der Sepia-Effekt,
> wie eben bei allem, was vergilbt ist.


Schaden tut es nicht - aber die typischen Ergebnisse stehen meiner 
Meinung nach in keinen Verhältnis zum vermutlichen Aufwand.
"Einfaches" Digitales "Entstören" und "Putzen" ohne Colorierung bringt 
deutlich mehr bei weniger Aufwand (und wohl auch kosten).
Wobei je mehr "Schwarz-Weiß" und "Matsch"  anstatt feine Graustufen mit 
viel Dynamik und vernünftiger Schärfe umso sinnloser (viel Aufwand für 
fast nichts) wird auch das Digitale Nachbearbeiten.

von Irgend W. (Firma: egal) (irgendwer)


Lesenswert?

Yalu X. schrieb:
> Eine
> Kolorierung der Aufnahme kann nur funktionieren, wenn die KI die Objekte
> Himmel, Zitrone und Schweinchen als solche erkennt. Bei der schier
> unendlichen Zahl von Objekttypen in der realen Welt ist die halbwegs
> zuverlässige Erkennung durch eine KI nach dem derzeitigen Stand der
> Technik aber kaum möglich.

Das Erkennen und erstmal eine (vermutliche) Farbe zuweisen, da ist der 
Mensch immer noch jeder KI haushoch überlegen. Was aber wohl schon recht 
gut geht, ist ein einmal zugewiesenes Objekt über eine gesamte Szene 
hinweg quasi zu verfolgen und entsprechend zu bearbeiten. Somit muss 
eben nicht mehr jedes Bild einzeln bearbeitet werden, sondern "nur" noch 
jede Szene.

von Oliver S. (phetty)


Lesenswert?

Faszinierend ist das schon, aber die meisten uralten nachkolorierten 
sehen irgendwie matschig aus.
Leider kenne ich die s/w-Originale nicht, sind die auch schon so 
unscharf, war damals einfach kein besseres Bild möglich? Dann müsste die 
KI zusätzlich noch Gesichter usw. "erfinden".

von c-hater (Gast)


Lesenswert?

Oliver S. schrieb:

> Leider kenne ich die s/w-Originale nicht, sind die auch schon so
> unscharf, war damals einfach kein besseres Bild möglich?

Altes Filmmaterial ist naturgemäß nicht sehr scharf. Das ist aber nur 
ein Teil des Problems.

Der größere Teil der "Matschigkeit" resultiert aus der modernen 
Aufarbeitung, sprich der Entfernung der Körnigkeit des alten 
Filmmaterials (also effektiv: des Rauschens) und der Entfernung von von 
Staub und Kratzern.

Das ist aber Vorbedingung dafür, dass die Algorithmen zur 
Objektidentifikation überhaupt halbwegs zuverlässig arbeiten können.

von Gucker (Gast)


Lesenswert?

Hallo

Oliver S. schrieb:
> Leider kenne ich die s/w-Originale nicht, sind die auch schon so
> unscharf, war damals einfach kein besseres Bild möglich? Dann müsste die
> KI zusätzlich noch Gesichter usw. "erfinden".

An was es auch liegt hat ja "c-hater" erklärt - und ja es ist 
tatsächlich so - einen Tod muss man wohl sterben- und echtes 
Filmrauschen (Chemischer Film) ist für die meisten weit weniger störend 
...

Bezüglich deiner "Idee":
Wäre das überhaupt noch ein "echter" Film (als digital codierte Datei) 
oder nicht schon ein Animationsfilm aus dem Computer der dann sehr 
schnell wie z.B. der "Avatar" Film wirkt...?
"Gemachte" Realität ?

von Lutz Locus (Gast)


Lesenswert?

c-hater schrieb:
> Der größere Teil der "Matschigkeit" resultiert aus der modernen
> Aufarbeitung, sprich der Entfernung der Körnigkeit des alten
> Filmmaterials (also effektiv: des Rauschens) und der Entfernung von von
> Staub und Kratzern.

Naja, das Rauschen ensteht erst durch die Digitalisierung. Alte Fotos 
sind nur Matchig weil bei der Entwicklung (Erstellung der Abzuge vom 
Original) die Körnergrenzen nicht abgebildet werden. Also beim Negativen 
(insbesonders die mit hohem ISO-Zahl) und Druckvorlagen hat man mehr 
Körnigkeit als beim Endprodukt auf Filmpapier. Eine Überabtastung und 
erst recht die Löchrige Bayermatrix schafft da Rauschen wo ursprünglich 
nichts war.

Das Wissen um analoge Fotografie scheint aber seit verloren gegangen zu 
sein, in der WP finden sich nur Bruckstückhafte Darstellungen, die auch 
noch einseitig auf die Nachteile gegenüber der Digitalisierung 
fokussiert sind:

https://de.wikipedia.org/wiki/Korn_(Foto)
https://de.wikipedia.org/wiki/Entwicklung_(Fotografie)

Auch beim alten Film hatte man die Wahl zwischen hoch- und 
normalauflösend, bei Hochauflösung nahm man grossfaächigene (breite) 
Filmrollen (Kino: 70mm, Standbild:Rollfilm (60x90). Und mit dem erzielt 
man besseres Ergebnisse als mit der Massenware 35mm oder Kleinbild 
(24x36). Braucht aber dafür extra Kameratechnik.


https://en.wikipedia.org/wiki/70_mm_film

von Frank H. (Gast)


Lesenswert?

Lutz Locus schrieb:
> In der Privatwirtschaft ist jeder Anwender privat.

Bahnbrechende Erkenntnis! ;-)

von rbx (Gast)


Lesenswert?

Naja, vom Ergebnis her: hängt sicher auch vom Ausgangsmaterial ab. Wie 
bei Musikaufnahmen: ist die Aufnahme nicht so toll, dann die 
Digitalisierung meist auch nicht.

Analog Musikkassette: War doch immer OK, z.B. als Muski fürs Auto, oder 
um die Schallplatte vor Kratzer zu bewahren.

Das ist bei bestimmten Blicken in die Vergangenheit nicht anders:

Deutschland 1945: Sensationell restaurierte Filmaufnahmen von George 
Stevens
https://www.youtube.com/watch?v=Hwy8SzVmWGc
16:50

von Thomas (Gast)


Lesenswert?

Interessant.
Aber gibt es auch bereits Lösungen mittels KI alte / schlechte Aufnahmen 
in HD Qualität zu konvertieren? Auch hier kann man ja aus bekanntem 
explorieren. Man könnte die KI auch mit hochauflösenden Fotos der 
Schauspieler füttern, oder diese durch andere ersetzen, oder 
künstlerisch aufhübschen lassen. Gleiches mit anderen Gegenständen im 
Film.

von Peter N. (alv)


Lesenswert?

Thomas schrieb:
> Aber gibt es auch bereits Lösungen mittels KI alte / schlechte Aufnahmen
> in HD Qualität zu konvertieren?

Dazu fällt mir ein:
Gibt es bereits KIs, die aus einen Haufen verschiedener Fotos z.B. 
einer Person ein 3D-Abbild errechnen können?
Ich meine nicht Photogrammetrie.

von Captain Zulu am Wochenende (Gast)


Lesenswert?

Lutz Locus schrieb:
> Eine Überabtastung und
> erst recht die Löchrige Bayermatrix schafft da Rauschen wo ursprünglich
> nichts war.

Sicher? Die Bayersensoren kommen doch heute mit einer Auflösung von 6k 
Punkten pro Achse und haben gerade 1 Zoll. Das sind 200 Punkte je 5mm. 
In Farbe 100.

Das sollte wohl reichen oder?

Jedenfalls bei Filmscannern.

von Alb Träumer (Gast)


Lesenswert?

Thomas schrieb:
> Man könnte die KI auch mit hochauflösenden Fotos der
> Schauspieler füttern, oder diese durch andere ersetzen, oder
> künstlerisch aufhübschen lassen

Ich hoffe doch nicht...
Schauspieler (oder gar Politiker, Wissenschaftler, irgendwann dann 
Privat oder als Dienstleistung Angehörige) wiederauferstehen lassen und 
mit denen dann Geld machen bzw. bei Angehörigen sich eine Scheinwelt (am 
besten als 3D Hologramm...) aufbauen... Horror! Ignorieren der 
Realität...

Was für "Filme" dann hergestellt werden würden möchte ich mir gar nicht 
ausmalen, bzw. was an Geschichtsfälschung mit "passenden Beweis" möglich 
wäre und sicher auch gemacht werden würde...
Nein, bitte nein

von Joachim B. (jar)


Lesenswert?

Alb Träumer schrieb:
> Ich hoffe doch nicht...
> Schauspieler (oder gar Politiker, Wissenschaftler, irgendwann dann
> Privat oder als Dienstleistung Angehörige) wiederauferstehen lassen

zu spät:
https://www.youtube.com/watch?v=lQYLe_-26TE&ab_channel=faz
https://www.youtube.com/watch?v=aVN-EFNl0zQ&ab_channel=WELTNetzreporter

: Bearbeitet durch User
von Robert K. (Gast)


Lesenswert?

Alb Träumer schrieb:
> Schauspieler (oder gar Politiker, Wissenschaftler, irgendwann dann
> Privat oder als Dienstleistung Angehörige) wiederauferstehen lassen und
> mit denen dann Geld machen bzw. bei Angehörigen sich eine Scheinwelt (am
> besten als 3D Hologramm...) aufbauen... Horror!

https://www.turn-on.de/article/8-tote-schauspieler-die-per-cgi-auf-die-leinwand-zurueckkehrten-310837?from=https%3A%2F%2Fwww.google.de%2F

von ●DesIntegrator ●. (Firma: FULL PALATINSK) (desinfector) Benutzerseite


Lesenswert?

"Dinner for one" taugt nur im Original

von Peter N. (alv)


Lesenswert?

Alb Träumer schrieb:
> Schauspieler (oder gar Politiker, Wissenschaftler, irgendwann dann
> Privat oder als Dienstleistung Angehörige) wiederauferstehen lassen und
> mit denen dann Geld machen

Wie war das mit Marylyn Monroe in einer Butterwerbung...?

von Rainer Z. (netzbeschmutzer)


Lesenswert?

Peter N. schrieb:
> Thomas schrieb:
>> Aber gibt es auch bereits Lösungen mittels KI alte / schlechte Aufnahmen
>> in HD Qualität zu konvertieren?
>
> Dazu fällt mir ein:
> Gibt es bereits KIs, die aus einen Haufen verschiedener Fotos z.B.
> einer Person ein 3D-Abbild errechnen können?
> Ich meine nicht Photogrammetrie.

Au ja, Dick und Doof (Oliver Hardy und Stan Laurel) in HD, in 3D und in 
Farbe... Und nicht den Ton vergessen: Mindestens HiFi und Dolby 
Surround-Sound.

von Thomas (Gast)


Lesenswert?

Alb Träumer schrieb:
> Nein, bitte nein

Ist wie mit jeder anderen Technologie auch:
Entweder man ist dabei, oder nicht.
In DE sind wir immer häufiger nicht dabei.

von Lebensberatung (Gast)


Lesenswert?

Thomas schrieb:
> Aber gibt es auch bereits Lösungen mittels KI alte / schlechte Aufnahmen
> in HD Qualität zu konvertieren?
Ja. Such mal nach Baywatch HD auf Youtube.

von Lebensberatung (Gast)


Lesenswert?

Peter N. schrieb:
> Dazu fällt mir ein:
> Gibt es bereits KIs, die aus einen Haufen verschiedener Fotos z.B.
> einer Person ein 3D-Abbild errechnen können?
> Ich meine nicht Photogrammetrie.

Schon mal was von deepfake gehört?

von Lebensberatung (Gast)


Lesenswert?

Lebensberatung schrieb:
> Thomas schrieb:
>> Aber gibt es auch bereits Lösungen mittels KI alte / schlechte Aufnahmen
>> in HD Qualität zu konvertieren?
> Ja. Such mal nach Baywatch HD auf Youtube.

Oh halt, das Urmaterial wurde auf 35mm gefilmt und neu gescanned, nix 
KI-Hochrechnung.

von Rolf M. (rmagnus)


Lesenswert?


: Bearbeitet durch User
von Εrnst B. (ernst)


Lesenswert?

Peter N. schrieb:
> Gibt es bereits KIs, die aus einen Haufen verschiedener Fotos z.B.
> einer Person ein 3D-Abbild errechnen können?

Das Problem ist so einfach, dass es schon vor Jahren ohne KI möglich 
war.

Klar, man kann da auch eine KI drauf werfen, aber mit Software wie 
"Meshroom" kriegt man das auch ohne hin, auch wenn man da vielleicht ein 
paar Input-Bilder mehr braucht.

https://github.com/alicevision/Meshroom

Youtube hat haufenweise Tutorials dazu...
https://www.youtube.com/watch?v=9Ul9aYhm7O4

von Rolf M. (rmagnus)


Lesenswert?

Εrnst B. schrieb:
> Klar, man kann da auch eine KI drauf werfen, aber mit Software wie
> "Meshroom" kriegt man das auch ohne hin, auch wenn man da vielleicht ein
> paar Input-Bilder mehr braucht.

Das wäre aber:

Peter N. schrieb:
> Photogrammetrie

von Yalu X. (yalu) (Moderator)


Lesenswert?

Rolf M. schrieb:
> Εrnst B. schrieb:
>> Klar, man kann da auch eine KI drauf werfen, aber mit Software wie
>> "Meshroom" kriegt man das auch ohne hin, auch wenn man da vielleicht ein
>> paar Input-Bilder mehr braucht.
>
> Das wäre aber:
> Peter N. schrieb:
>> Photogrammetrie

Das wäre es aber auch, wenn die Auswertung der Bilder mittels KI 
erfolgen würde. Der Begriff "Photogrammetrie" beinhaltet kein konkretes 
Auswerteverfahren.

Die Frage von Peter N. hätte deswegen richtigerweise lauten müssen: 
Können in der Photogrammetrie auch KI-Verfahren eingesetzt werden?

Wobei dann noch festzulegen wäre, was KI-Verfahren sind. Sind das nur 
Neuronale Netze, oder gibt es auch noch weitere?

von Rolf M. (rmagnus)


Lesenswert?

Yalu X. schrieb:
> Die Frage von Peter N. hätte deswegen richtigerweise lauten müssen:
> Können in der Photogrammetrie auch KI-Verfahren eingesetzt werden?

Ich hatte die Frage eher so verstanden, dass es um Fotos geht, die nicht 
alle auf einmal unter kontrollierten Bedingungen speziell mit dem Zweck 
der Erstellung eines 3D-Modells aufgenommen wurden, sondern z.B. einfach 
viele Fotos in unterschiedlichsten Situationen z.B. alle Bilder eins 
Prominenten, die Google ausspuckt. Damit kann man mit Meshroom absolut 
nichts anfangen.
Selbst speziell für die Photogrammetrie gemachte Bilderreihen von 
Personen sind da kaum sinnvoll zu nutzen, weil das Motiv über die 
komplette Session unbedingt bewegungslos bleiben muss. Schon bei 
geringen Bewegungen steigt der Nachbearbeitungs-Aufwand gewaltig an.
Bei Menschen kommt dann sowas raus:
https://www.reddit.com/r/photogrammetry/comments/jxtgcm/meshroom_i_took_26_photos_of_my_friend_with_a/

Und selbst wenn man dann ein hochqualitatives 3D-Modell zuzüglich den 
passenden Material-Einstellungen für wirklich realistisches Rendering 
zusammenbekommen hat, ist es immer noch erst mal einfach statisch. Das 
realistisch zu animieren erfordert nochmal einen sehr großen Aufwand. 
Alles nicht unmöglich, aber diese Aussage finde ich etwas irreführend:

Εrnst B. schrieb:
> Das Problem ist so einfach, dass es schon vor Jahren ohne KI möglich
> war.

Möglich ja, aber einfach mit Sicherheit nicht.

: Bearbeitet durch User
von Yalu X. (yalu) (Moderator)


Lesenswert?

Rolf M. schrieb:
> Ich hatte die Frage eher so verstanden, dass es um Fotos geht, die nicht
> alle auf einmal unter kontrollierten Bedingungen speziell mit dem Zweck
> der Erstellung eines 3D-Modells aufgenommen wurden, sondern z.B. einfach
> viele Fotos in unterschiedlichsten Situationen z.B. alle Bilder eins
> Prominenten, die Google ausspuckt.

Das wäre dann eben Photogrammetrie unter erschwerten Bedingungen :)

von Bartosz B. (bartosz)


Lesenswert?

Als die Schwarz-Weiß-Filme gedreht wurden, hat man mit Absicht falsche 
Farben genommen, damits in SW richtig aussieht. Zum Beispiel kamen pinke 
Stürmpfe in SW nicht richtig rüber, daher trug die Schauspielerin andere 
Farben.
Wenn du nun wieder kolorierst, musst du mit dem falschen Ergebnis leben.

von Peter N. (alv)


Lesenswert?

Bartosz B. schrieb:
> Als die Schwarz-Weiß-Filme gedreht wurden, hat man mit Absicht falsche
> Farben genommen, damits in SW richtig aussieht. Zum Beispiel kamen pinke
> Stürmpfe in SW nicht richtig rüber, daher trug die Schauspielerin andere
> Farben.
> Wenn du nun wieder kolorierst, musst du mit dem falschen Ergebnis leben.

Heißt das jetzt, daß man beim kolorieren für die Strümpfe nicht "pink" 
sondern die Originalfarbe verwenden soll?

von Christoph db1uq K. (christoph_kessler)


Lesenswert?

https://www.youtube.com/watch?v=P2uZF-5F1wI
eine sehr gesprächige Mona Lisa als Deepfake

von Rolf M. (rmagnus)


Lesenswert?

Peter N. schrieb:
> Bartosz B. schrieb:
>> Als die Schwarz-Weiß-Filme gedreht wurden, hat man mit Absicht falsche
>> Farben genommen, damits in SW richtig aussieht. Zum Beispiel kamen pinke
>> Stürmpfe in SW nicht richtig rüber, daher trug die Schauspielerin andere
>> Farben.
>> Wenn du nun wieder kolorierst, musst du mit dem falschen Ergebnis leben.
>
> Heißt das jetzt, daß man beim kolorieren für die Strümpfe nicht "pink"
> sondern die Originalfarbe verwenden soll?

Es heißt, dass die Helligkeit nicht zu pink passt. Wenn man es jetzt 
wieder Pink einfärben will, ist die Schattierung falsch.

von Peter N. (alv)


Lesenswert?

Rolf M. schrieb:
> Es heißt, dass die Helligkeit nicht zu pink passt. Wenn man es jetzt
> wieder Pink einfärben will, ist die Schattierung falsch.

Verstehe ich nicht so recht. Pink reicht, wie jede andere Farbe, von 
ziemlich dunkel bis ziemlich hell.
Dann trifft man nicht die Helligkeit, die das damals beabsichtigte Pink 
haben sollte, aber das ist egal. Notfalls kann man ja die Helligkeit 
auch noch anpassen.

von Rainer Z. (netzbeschmutzer)


Lesenswert?

Wegen pink oder schweinchenrosa: Interessant ist, das in Zeiten des 
S/W-Fernsehens andere Prioritäten herrschten. Der Kontrast spielte eine 
Rolle, die Farbe weniger. Denn dunkelgrün hebt sich kaum von dunkelrot 
ab.

Interessantes Beispiel, an welches ich mich erinnere: Bei Übertragungen 
von Fußballspielen mussten die Trikots bis weit in die 70er Jahre noch 
dergestalt ausgesucht werden, dass die Spieler beider Mannschaften auf 
S/W-Fernsehern zu unterscheiden waren.

Ich las mal, dass bei Einführung des Farbfernsehens plötzlich sehr genau 
auf farblich passende Kleidung (der Nachrichtensprecher etc.) geachtet 
wurde. Mit Farbtabellen etc. Leider habe ich keine Quelle zur Hand.

Und dann war da noch der Moiré-Effekt bei karierten Anzügen oder Röcken.

von Saxofonist (Gast)


Angehängte Dateien:

Lesenswert?

Peter N. schrieb:
> Als Kind hatten wir auch nur einen SW-Fernseher, sollte also gewohnt
> sein.

Die Wunderfolie konnte auch blauen Himmel und grünes Gras machen

von Saxofonist (Gast)


Lesenswert?


von Peter N. (alv)


Lesenswert?

Saxofonist schrieb:
> Die Wunderfolie konnte auch blauen Himmel und grünes Gras machen

Sowas wollte uns damals ein Vertreter auch andrehen...

von ●DesIntegrator ●. (Firma: FULL PALATINSK) (desinfector) Benutzerseite


Lesenswert?

grünes Wundergras würde mir auch gefallen.

von Johnny B. (johnnyb)


Lesenswert?

Robert K. schrieb:
> Dieter schrieb:
>> Das macht man heute mit KI-Bilderkennung
>
> https://palette.fm/

Wow, bin sehr beeindruckt!
Vorallem kann man eigene Wünsche einfach als Text formulieren und die KI 
setzt dies dann mehr oder weniger gut um.

von Christoph db1uq K. (christoph_kessler)


Lesenswert?

Nach vier sw-Fotos ist anscheinend Schluß. Sehr hübsch!

von Benedikt L. (Firma: Dem Ben seine Leiche) (dembenseineleiche) Flattr this


Lesenswert?

Peter N. schrieb:
> Sowas wollte uns damals ein Vertreter auch andrehen...

Ein Vertreter??
Also so ein Schmierlappen der von Haus zu Haus tingelt? Hausfrauen 
schwänhgerte und dabei 20-Cent Overheadfolien verkaufen?

Früher haben wir Frischfolie auf den Fernsehr gespannt und mit Stiften 
bemalt! Das war ein Heyenspaß für Kinder und auch Eltern!
Und dr Himmer blau und das Gars grün!

von Peter N. (alv)


Lesenswert?

Benedikt L. schrieb:
> Früher haben wir Frischfolie auf den Fernsehr gespannt

Frischhaltefolie gab es damals noch nicht, nur Butterbrotpapier.
Das muß so Mitte 60er gewesen sein.

von rbx (Gast)


Lesenswert?

Peter N. schrieb:
> Frischhaltefolie gab es damals noch nicht, nur Butterbrotpapier.
> Das muß so Mitte 60er gewesen sein.

3D Guckerei war auch irgendwie immer so ein komischer 
Schwarzweiß-Farb-Mischmasch.
3D Postkarten funktionieren scheinbar besser, die kann man ohne 
besondere Brille bestaunen.
Skyrim VR hat zwar nichts mit Farbe oder 3D zu tun, aber die 
zusätzlichen Spielmöglichkeiten sind schon neu.

Krieg der Sterne war jetzt auch nicht 3D, aber hatte nicht den Eindruck, 
dass was wichtiges fehlt.

Wenn allerdings der Geruchssinn sensibler wird..

von Smith (Gast)


Lesenswert?

rbx schrieb:
> Krieg der Sterne war jetzt auch nicht 3D, aber hatte nicht den Eindruck,
> dass was wichtiges fehlt.

Ich schon.

Der Mensch hat zwei Ohren, damit er räumlich hören kann. Alle Welt will 
Dolby Atmos und Konsorten.

Der Mensch hat auch zwei Augen, damit er räumlich sehen kann. Trotzdem 
will niemand 3D-Fernsehen und 3D-Kino.

Menschen sind unlogisch.

von IQ spaltet (Gast)


Lesenswert?

Smith schrieb:
> Der Mensch hat auch zwei Augen, damit er räumlich sehen kann. Trotzdem
> will niemand 3D-Fernsehen und 3D-Kino.
>
> Menschen sind unlogisch.

Nope, bei menschen mit Logik kompensiert die Vorstellungskraft fehlendes 
3D. Ein Film funktioniert eben wegen der Dramaturgie und der Anregung 
des Kopfkinos, nicht wegen der bildlichen Tiefe.

von Smith (Gast)


Lesenswert?

IQ spaltet schrieb:
> Nope, bei menschen mit Logik kompensiert die Vorstellungskraft fehlendes
> 3D.

Wäre das so einfach, hätte die Evolution uns nur ein Auge gegeben.

IQ spaltet schrieb:
> Ein Film funktioniert eben wegen der Dramaturgie und der Anregung des
> Kopfkinos

Es gibt Menschen, die haben kein Kopfkino:
https://de.wikipedia.org/wiki/Afantasie

von Irgend W. (Firma: egal) (irgendwer)


Lesenswert?

c-hater schrieb:
> Oliver S. schrieb:
>
>> Leider kenne ich die s/w-Originale nicht, sind die auch schon so
>> unscharf, war damals einfach kein besseres Bild möglich?
>
> Altes Filmmaterial ist naturgemäß nicht sehr scharf. Das ist aber nur
> ein Teil des Problems.
>
> Der größere Teil der "Matschigkeit" resultiert aus der modernen
> Aufarbeitung, sprich der Entfernung der Körnigkeit des alten
> Filmmaterials (also effektiv: des Rauschens) und der Entfernung von von
> Staub und Kratzern.
>
> Das ist aber Vorbedingung dafür, dass die Algorithmen zur
> Objektidentifikation überhaupt halbwegs zuverlässig arbeiten können.

Das "Weichspülen" ist nur ein Teil des Problems.
Gerade bei alten Filmen ist nicht immer das Originalfilmmaterial noch 
erhalten, sondern nur noch irgendwelche Kopien (oder gar Kopie der 
Kopie). Teilweise auch noch auf verkleinerten Formaten. Schön das damals 
in der Kamera vielleicht ein 70mm Film drin war, wenn davon aber nur 
noch eine 16mm Kopie erhalten ist, ist es schwierig mit einfach mal 
neu/besser scannen.
Wenn diese dann auch noch schon zig mal vorgeführt wurde, ist die 
Qualität des Ausgangsmaterials für eine weitere Bearbeitung schon stark 
eingeschränkt.

Gutes Beispiel hierfür ist der Film Metropolis, das ja aus mehreren 
Quellen wieder zusammengesetzt wurde. Da sieht man schön die teils 
erheblichen Qualitätsunterschiede.

- https://de.wikipedia.org/wiki/Metropolis_(Film)#Wiesbaden_2010

- 
https://de.wikipedia.org/wiki/Filmlager-Brand_in_den_20th_Century_Fox_Studios
- https://de.wikipedia.org/wiki/Zelluloidfilm#Lagerung

von Karl Käfer (Gast)


Lesenswert?

Yalu X. schrieb:
> Das funktioniert überhaupt nicht, weil der gleiche Grauwert je nach
> Position im Bild völlig verschiedene Farben repräsentieren kann. Bspw.
> könnte ein hellgraues Pixel in der S/W-Aufnahme zum blauen Himmel, zu
> einer gelben Zitrone oder zu einem rosaroten Schweinchen gehören. Eine
> Kolorierung der Aufnahme kann nur funktionieren, wenn die KI die Objekte
> Himmel, Zitrone und Schweinchen als solche erkennt.

Alles richtig, aber

> Bei der schier
> unendlichen Zahl von Objekttypen in der realen Welt ist die halbwegs
> zuverlässige Erkennung durch eine KI nach dem derzeitigen Stand der
> Technik aber kaum möglich.

ich denke, das hängt zunächst vor allem von den Daten ab, mit denen die 
KI trainiert worden ist. Wenn man sich Farbfilmsequenzen heraussucht, 
die den zu Kolorierenden möglichst stark ähneln und in denen natürlich 
die Objekte vorkommen sollten, die es auch im zu kolorierenden Film 
gibt, kann man mit genug Zeit und Rechenaufwand sicher ganz gute 
Ergebnisse bekommen.

> Wenn sich die KI nicht sicher auf eine bestimmte Farbe festlegen kann
> (was aus den o.g. Gründen fast immer der Fall ist), entscheidet sie sich
> für eine, die statistisch gesehen etwa in der Mitte aller real
> vorkommenden und nach Häufigkeit gewichteten Farben liegt, und das sind
> eben die Brauntöne von khaki bis dunkelbraun, je nach Helligkeit der
> entsprechenden Bereiche in der S/W-Aufnahme.

Das hängt wohl von den gewählten Algorithmen ab, schätze ich, vor allem 
von den Fehlermetriken und dem Optimierer.

von rbx (Gast)


Lesenswert?

Also das mit dem Vorstellungsvermögen: man kann es auf jeden Fall üben 
(ähnlich wie Kartenhäuser bauen, braucht aber wohl etwas länger), und 
was auch gut ist, das ist die Kommunikation der beiden Gehirnhälften 
miteinander anzuheizen - wie man sich das so vorstellt - mit Übungen, 
wie eine 8 im Geiste durchzufahren (wie Carrera-Bahn z.B.) oder 
Schlangenlinien von oben nach unten mit den Augen verfolgen.
Schnelle Augenbewegungen (durch Verfolgung von Objekten) sind auch nach 
Schlaganfällen sehr hilfreich, z.B. um wieder besser zwischen Bild oder 
kein Bild unterscheiden zu können.

Nicht nur das: es scheint auch ganz gut zu Bearbeitung von Problemen mit 
traumatischen Erfahrungen zu helfen.
Die Therapie selber ist so ein wenig in der Diskussion. Was aber auf 
jeden Fall hilft bei der Betrachtung der Ausgangssituation, ist die der 
Wissenschaftlerin zu kennen.
Die hatte selber erklärt, das ihr selbst das schnelle Hin- und 
Herschauen geholfen hatte.

Ich hatte damals unseren besten Prof (Veröffentlichungsrekord) dazu 
gefragt. Viel konnte der auch nicht sagen außer, dass er meinte, die 
Kommunikation der beiden Gehirnhälften wird besser.

Viel genaues über den Hintergrund weiß man nicht - aber man kann sich 
nähern und man kennt die Schlafrythmen, und es gibt auch bei den 
Schlaganfällen gute Fortschritte (Stroke-Units, Computerprogramme für 
die Reha).

Sicher auch nicht schlecht ist Fähigkeit, zu fokussieren..

von Peter N. (alv)


Lesenswert?

Smith schrieb:
> Der Mensch hat auch zwei Augen, damit er räumlich sehen kann. Trotzdem
> will niemand 3D-Fernsehen und 3D-Kino.

Wie willst du das denn hinbekommen?

Die Methoden, jedem Auge eigene Bildinformationen zukommen zu lassen 
mittels Farb-, Polarisations- oder Shutterbrillen funktioneren mehr 
schlecht als recht, und spätestens bei Brillenträgern gar nicht mehr.

Holodecks sind noch nicht erfunden.
Direktes Einspielen ins Gehirn auch nicht.

Bleibt als nur die VR-Brille. Aber stell die mal eine Menge Menschen 
vor, von denen jeder eine VR-Brille trägt, die in dem Kinosaal 
durcheinanderlaufen...

Hinzu kommt, daß mein 3D-Empfinden weniger durch die Blickwinkel meiner 
Augen, sondern mehr durch die Bewegungsebenen zwischen Vorder- und 
Hindergrund erzeugt wird.

von Praktikus (Gast)


Lesenswert?

Hallo

Das es "1001" Anläufe bei der 3D Videowiedergabe gegeben hat und sich 
nichts im Konsumerbreich durchgesetzt hat und selbst beim "großen Kino" 
immer eine Ausnahme ist zeigt ja wie technisch Problematisch das ganze 
ist und wie wenig es letztendlich wirklich nachgefragt ist.
Alle paar Jahre (Jahrzehnte) gibt es immer mal wieder einen kurzen Hype 
der sich aber nicht wirklich durchsetzt (Konsumerbreich, als 
Massenmedium, als Kinolockmittel, bei Nischenwendungen in Wissenschaft, 
Industrie und Forschung und sogar bei "Hardcoregamern" mag das anders 
sein).

3D ist für die meisten  gar nicht so wichtig - vor allem wenn es um den 
Inhalt des Filmes und nicht um "billige" Effekte geht - vor allem weil 
das "übliche" 3D auch wenig mit den 3D Sehen aus den echten Leben gemein 
hat - wie oft fliegt man in Folge eine Explosion denn so durch die 
Gegend, wie oft sitzt man im Kampfjet oder als Passagier auf einen Pfeil 
der von irgendwelchen Phanstasiegestalten (Avatar) abgeschossen wird...?
Eher doch selten...

IQ spaltet schrieb:
> Ein Film funktioniert eben wegen der Dramaturgie und der Anregung
> des Kopfkinos, nicht wegen der bildlichen Tiefe.

Das ist es doch - das ist es was die typischen Mega Blockbuster die 
schon nach 3 Jahren vergessen sind von Filmen unterscheidet die auch 
nach 50, 100 Jahren einzigartig sind  und auch heute noch sehr gut 
funktionieren.

von loeti2 (Gast)


Lesenswert?

Beim 3D kommt noch hinzu daß das Auge nicht auf unterschiedliche 
Abstände fokussieren muß obwohl dem Gehirn unterschiedliche Ebenen 
vorgegaukelt werden.
Deswegen ist das für mich auch zu anstrengend einen ganzen Film in 3D zu 
schauen.

von ●DesIntegrator ●. (Firma: FULL PALATINSK) (desinfector) Benutzerseite


Lesenswert?

Smith schrieb:
> Der Mensch hat auch zwei Augen, damit er räumlich sehen kann. Trotzdem
> will niemand 3D-Fernsehen und 3D-Kino.
>
> Menschen sind unlogisch.

unlogisch ist der Ton von überall her, wenn das Bild nur von vorne kommt

von Andreas M. (andreas_m62)


Lesenswert?

●DesIntegrator ●. schrieb:
> unlogisch ist der Ton von überall her, wenn das Bild nur von vorne kommt

Das ist aber in der Realität auch so,
oder hast du hinten Augen?

: Bearbeitet durch User
von Rolf M. (rmagnus)


Lesenswert?

Andreas M. schrieb:
> ●DesIntegrator ●. schrieb:
>> unlogisch ist der Ton von überall her, wenn das Bild nur von vorne kommt
>
> Das ist aber in der Realität auch so,
> oder hast du hinten Augen?

Nein, aber einen beweglichen Hals. Damit kann man den Kopf drehen, um in 
die Richtung zu schauen, wo der Ton herkommt.

von Christoph db1uq K. (christoph_kessler)


Angehängte Dateien:

Lesenswert?

nochmal:
> https://palette.fm/
Die kostenlose Benutzung ist auf 500*500 Pixel beschränkt, daher konnte 
ich nichts mehr hochladen. Aber wenn ich meine alten SW-Aufnahmen (um 
1963) passend verkleinere geht es wieder. Ich bin beeindruckt über die 
KI, das klappt auch mit ziemlich pixeligen Bildern noch, Gesichter 
werden erkannt, die Farben der Bekleidung sind nur geschätzt aber ok.

Hier eine alte Postkarte. Sie ist durch die Verkleinerung ziemlich 
pixelig geworden.
Der damals noch vorausschauend hochgesetzte Gully rechts unten ist quasi 
vor meiner Haustür, die Straße anstelle des Weges wurde auf das Niveau 
des Gullies aufgefüllt. Alle noch sichtbaren Felder sind mittlerweile 
bebaut. Damals konnten wir da noch Drachen steigen lassen.

von Rolf M. (rmagnus)


Lesenswert?

Ich finde, dass das Bild irgendwie eher wie ein Gemälde wirkt als wie 
ein Foto, kann aber nicht genau sagen, warum.

von Christoph db1uq K. (christoph_kessler)


Lesenswert?

Ich habe noch auf der Rückseite der Postkarte nachgeschaut, da steht 
"Verlag Max Hepp", und der findet sich hier:
https://ansichtskarten-lexikon.de/verlag-rheinischer-kunst--u-postkarten-verlag-34hepp34-mannheim-1332.html?sort=aklex_a
Postkarten von 1908 bis 1953, vor allem vor dem 1.Weltkrieg. Die hier 
ist nicht aufgeführt. Da wurde vermutlich kräftig retuschiert, die 
anderen sehen ähnlich künstlich aus.
Das Viertel rechts hinten hatten bis vor ein paar Jahren noch echte 
Gaslaternen. Eine Bürgerinitiative bemühte sich um den Erhalt, aber 
jetzt mussten sie doch LEDs weichen, wenigstens hat man die farblich 
angepasst und in die alten Laternen eingebaut, wenn ich recht weiß.

: Bearbeitet durch User
von Robert K. (Gast)


Lesenswert?

Rolf M. schrieb:
> Ich finde, dass das Bild irgendwie eher wie ein Gemälde wirkt als wie
> ein Foto, kann aber nicht genau sagen, warum.

s/w Aufnahmen sind häufig nicht einfach Farbaufnahmen nur ohne Farbe. 
Man verwendete z.B. Gelbfilter um den Himmel dunkler zu machen und 
Kontrast zwischen Himmel und Wolken zu vergrößern. Bei Portraitaufnahmen 
nutzte man eine kontrastreiche Beleuchtung, während bei Farbaufnahmen 
eine gleichmäßige Ausleuchtung besser ist.

von ●DesIntegrator ●. (Firma: FULL PALATINSK) (desinfector) Benutzerseite


Lesenswert?

Andreas M. schrieb:
> ●DesIntegrator ●. schrieb:
>> unlogisch ist der Ton von überall her, wenn das Bild nur von vorne kommt
>
> Das ist aber in der Realität auch so,
> oder hast du hinten Augen?

Schwachsinn des Jahres.
Aber Du hast Glück, das Jahr ist noch jung,
da geht noch mehr.

von rbx (Gast)


Lesenswert?

●DesIntegrator ●. schrieb:
> Andreas M. schrieb:
>> ●DesIntegrator ●. schrieb:
>>> unlogisch ist der Ton von überall her, wenn das Bild nur von vorne kommt
>>
>> Das ist aber in der Realität auch so,
>> oder hast du hinten Augen?
>
> Schwachsinn des Jahres.
> Aber Du hast Glück, das Jahr ist noch jung,
> da geht noch mehr.

Künstliches 3D Hören (auf Kopfhörern) funktioniert z.T. sehr gut. Wird 
aber in Open World Games wohl eher nicht genutzt - was ich sehr schade 
finde. Andererseits ärgere ich mich darüber, wenn in Skyrim in der Pampa 
ein Bär mault, und man keine Ahnung hat, wo das Gemaule herkommt.
Gerade in solchen Spielen wird deutlich, wie wichtig das Hören manchmal 
sein kann.

Andererseits:
Im Skyrim-Addon Wyrmstooth werden (wenn ich das richtig verstanden habe) 
KI-genereierte Stimmen eingesetzt. Faszinierend..
https://the-decoder.de/ki-revolution-in-der-videospielindustrie-schon-wieder-skyrim/

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.