Hallo, mein begrenztes Wissen bzgl. Video sagt NEIN, denn in analogen Graustufen sind keine Farbinformationen vorhanden. Was sagen die Fachleute? Ab wann konnten Fernsehstudios o.ä. Videoaufnahmen in Farbe machen? Und ab wann war die Technik für den privaten Anwender verfügbar? Micha
Schau dir z.B. "Der Graf von Monte Christo" (die Verfilmung mit Jean Marais) an.
Klar kann man nachträglich colorieren, als Beispiel die alten Stan Laurel und Olliver Hardy-Filme. Sieht aber etwas seltsam aus, aber leichter zu Ertragen als SW.
:
Bearbeitet durch User
Nicht wenn man mit S/W-Filmen aufgewachsen ist. Dann sind diese pastelligen Farben der nachkolorierten Filme schwer zu ertragen. 😂
Wir sind nur in schwarz und weiß richtig zu genießen.
Mario M. schrieb: > Nicht wenn man mit S/W-Filmen aufgewachsen ist. Dann sind diese > pastelligen Farben der nachkolorierten Filme schwer zu ertragen. 😂 Als Kind hatten wir auch nur einen SW-Fernseher, sollte also gewohnt sein. Allerdings fehlt beim SW-Sehen die Farbdimension, was was das Sehen sehr anstrengt. Diese seltsamen Pastelltöne erleichtern das Sehen etwas.
Nach Wissen Durstender schrieb: > mein begrenztes Wissen bzgl. Video sagt NEIN, denn in analogen > Graustufen sind keine Farbinformationen vorhanden. Was sagen die > Fachleute? Natürlich ist in Graustufen Farbinformation enthalten, nur halt nicht umkehrbar eindeutig. Sensoren zeichnen prinzipiell nur Graustufen auf, erst durch ein Farbfilter davor kann man das ergebniss colorieren: https://de.m.wikipedia.org/wiki/Bayer-Sensor Nachkolerierte SW-Filme gab es spätestens seit den Achtzigern, beispielsweise: https://de.wikipedia.org/wiki/Ist_das_Leben_nicht_sch%C3%B6n%3F#Nachcolorierung von 1986 . > Ab wann konnten Fernsehstudios o.ä. Videoaufnahmen in Farbe machen? > Und ab wann war die Technik für den privaten Anwender verfügbar? In der Privatwirtschaft ist jeder Anwender privat. Farbaufnahmen konnte man bereits in den dreißigern machen, der erste Farbfilm datiert von 1935. Das Patent für die Farbbildröhre wenig später 1938.
Für Fotos gibts da auch Web-Dienstleister dafür, sieht aber teilweise noch weit weg von 'gut' aus. Im Photoshop gibts auch ein glaube mehr oder weniger kostenloses Plugin von Adobe, da siehts sogar noch schlimmer aus (Stand: meine Ausprobierung von vor 2 Monaten). -> also ja, gibt wohl was, taugt aber nicht wirklich (imho)
tut nix zur Sache schrieb: > Im Photoshop gibts auch ein glaube mehr > oder weniger kostenloses Plugin von Adobe, da siehts sogar noch > schlimmer aus (Stand: meine Ausprobierung von vor 2 Monaten). Ich weiß nicht, ob mit Photoshop, aber ich habe schon von Hobbyisten nachkolorierte Bilder gesehen, die sahen hervorragend aus, kaum von echten Farbaufnahmen zu unterscheiden.
Peter N. schrieb: > aber ich habe schon von Hobbyisten Was ein echtes Hobby ist, dafür nimmt man sich halt die Zeit, die es benötigt um zum gewünschten Ergebnis zu kommen; da ist einfach der Weg das Ziel. > nachkolorierte Bilder gesehen, die sahen hervorragend aus, > kaum von echten Farbaufnahmen zu unterscheiden. Gibt sogar Leute, die malen mit MS-Paint pixelweise fotorealistische Bilder.
Das macht man heute mit KI-Bilderkennung und ergänzt dann die Farben. Das funktioniert zwar nicht zu 100%, aber der manuelle Bearbeitungsaufwand reduziert sich erheblich.
Peter N. schrieb: > Als Kind hatten wir auch nur einen SW-Fernseher Damals(tm) zu meiner Zeit war sogar das Radio in SW!!!1111
Nach Wissen Durstender schrieb: > mein begrenztes Wissen bzgl. Video sagt NEIN, denn in > analogen Graustufen sind keine Farbinformationen vorhanden. Mein begrenztes Wissen bzgl. Video sagt, daß letztlich jedes Video nur eine Abfolge von (sehr vielen) einzelnen Bildern, die heutzutage (zumindest wenn sie Teil eines Videos sind) ihrerseits wiederum nur eine Ansammlung von einzelnen Pixeln sind; folglich braucht man nur in jedem einzelnen Bild, jeden einzelnen grauen Pixel durch einen solchen in der richtigen Farbe ersetzen und anschließend all die Bilder wieder zu einem Video zusammensetzen… Klingt nach viel Arbeit? - Klar isses auch, wenn man das alles händisch machen muß; so wie es auch einiges an Arbeit ist, jedes einzelne Bild eines Zeichentrick-Films händisch zu zeichnen. > Was sagen die Fachleute? Die sagen gar nix und machens einfach; und das schon seit Jahrzehnten und anfangs tatsächlich wohl in mühsamer Handarbeit.
Wie erkennt man an der Graustufe den Farbton? Die Farbe konnte doch schon bei der Aufnahme in SW heller oder dunkler gewesen sein. Außerdem gibt es doch genug verschiedene Farbtöne, die den gleichen Grauton erzeugen. Hat man früher wirklich jedes einzelne Filmbild von Hand nachkoloriert?
:
Bearbeitet durch User
Andreas M. schrieb: > Wie erkennt man an der Graustufe den Farbton? > Die Farbe konnte doch schon bei der Aufnahme in SW > heller oder dunkler gewesen sein. > Außerdem gibt es doch genug verschiedene Farbtöne, > die den gleichen Grauton erzeugen. Gar nicht, das ist intelligentes Raten. Z.B. wenn der Cowboy erkennbar eine Jeans an hat war die höchstwahrscheinlich blau, der Grauton bestimmt dann wie dunkel das Blau war.
Nach Wissen Durstender schrieb: > Hallo, > > mein begrenztes Wissen bzgl. Video sagt NEIN, denn in analogen > Graustufen sind keine Farbinformationen vorhanden. Was sagen die > Fachleute? > Klar kann man: Berlin 1920 https://www.youtube.com/watch?v=OBfFWnKM-mQ Paris 1920 https://www.youtube.com/watch?v=mgVl6Yk4itw Wien 1906 https://www.youtube.com/watch?v=ILznJfsPGYg San Francisco 1906 https://www.youtube.com/watch?v=sHkc83XA2dY Die Farbinformationen muss man anhand von bekanntem hinzufügen und das ganze dann am Computer entsprechend einfärben. Scheinbar geht das auch mit KI Unterstützung: München Oktoberfest 1920 https://www.youtube.com/watch?v=nX186hzKMZY > Ab wann konnten Fernsehstudios o.ä. Videoaufnahmen in Farbe machen? > Und ab wann war die Technik für den privaten Anwender verfügbar? > > Micha Das solltest du recht leicht selber herausfinden können.
Andreas M. schrieb: > Wie erkennt man an der Graustufe den Farbton? Man macht es anhand vom Bekannten. Man weiß das Holz in der Regel braun ist, also ist ein Holzfass braun zu colorieren. Nimmt man eine Vorlage, dann weiß man ungefähr, welche Brauntöne man nehmen kann, so dass es plausibel aussieht. Bei Gebäuden kann man anhand dem Baumaterial erkennen, welche Farbe das sein muss. Das funktionierte zumindest früher, als man noch nicht die Häuser mit bunten Farben anmalte. Eine 1:1 Abbildung wird das logischerweise aber nie werden, es wird nur so plausibel wie möglich, wenn man es gut machen will. Wenn man also in einem Karnevalsfest eine Person hat, die sich damals hellgrün angemalt hat, dann wird man die in der Schwarzweißaufnahme so wie man es gewohnt ist, mit bekannten Hauttönen einfärben. Die Information, dass die damals hellgrün herumlief, ist verloren gegangen.
Hier mal ein schönes Beispiel. Eine nachkolorierte Straßenbahnmitfahrt durch Leipzig 1931: https://www.youtube.com/watch?v=CETIdLkJM4k
Schwarz-weiß hat Charakter coloriert nur Schleim.
Nach Wissen Durstender schrieb: > mein begrenztes Wissen bzgl. Video sagt NEIN, denn in analogen > Graustufen sind keine Farbinformationen vorhanden. Das ist (mit kleinen Einschränkungen) wirklich so. Genau deswegen gibt es den Vorgang des "colorierens", den du bereits im Topic verwendet hast. Eine der zwei wesentlichen Operationen des "colorierens" ist die Vorgabe eines Farbwertes für einen bestimmten Bildbereich. Der andere ist, das Bild überhaupt erstmal sinnvoll in Bereiche zu zerlegen. Das ist der bei weitem kompliziertere Teil... > Ab wann konnten Fernsehstudios o.ä. Videoaufnahmen in Farbe machen? Nun, seitdem die entsprechende Technik als Handelsware verfügbar war. Logisch, oder? > Und ab wann war die Technik für den privaten Anwender verfügbar? Seitdem es für den billig genug wurde. Auch wieder: logisch, oder? Trollalarm!
Blechbieger schrieb: > Andreas M. schrieb: >> Wie erkennt man an der Graustufe den Farbton? > > ... wenn der Cowboy erkennbar > eine Jeans an hat war die höchstwahrscheinlich blau ... ... dann hat man sich die Handlung des Cowboyfilmes angesehen, um zu bestimmen, wer gut und wer böse ist. Dann hatte man schon mal die Farbe der Hüte. Denn der Gute (John Wayne) hatte immer einen weißen Hut und die Schurken hatten IMMER schwarze Hüte. Ziemlich einfache Welt, die einem damals verkauft wurde. Habe meine Frage wohl etwas unglücklich formuliert. Eine einzelne Fotografie (oder Einzelbilder eines Films) mittels stundenlanger oder tagelanger manueller Verfahren zu colorieren, war nicht meine eigentliche Fragestellung. Ich dachte eher daran, dass man ein S/W-Video wo durchlaufen lässt und nach einer Tasse Kaffee hat man ein perfektes Ergebnis vorliegen. So verhält es sich offensichtlich nicht. @Nostalgiker: Besten Dank für deinen ersten Link, weiterführende Links brachten Licht ins Dunkel: "Dana Keller, Grafiker und Archivar aus Boston in Massachusetts lädt die Aufnahme ins Bildbearbeitungsprogramm seines Computers. Mit einem Wacom-Tablett, einer Art Flachbildschirm, und einem Spezialstift wird er die folgenden Stunden daran arbeiten. Pixel für Pixel, Quadratzentimeter für Quadratzentimeter. Zwei ganze Tage lang. Erst dann ist er mit dem Ergebnis zufrieden." "Auch Marina Amaral , 22, ist überzeugt, dass es möglich ist, "extrem realistische Bilder zu erzeugen". Es ist ihr Beruf - die in Brasilien lebende Künstlerin färbt Schwarz-Weiß-Aufnahmen ein und begeistert sich für Geschichte und Photoshop: "Alle meine Bilder durchlaufen einen langen Prozess der Erforschung. Erst dann bin ich in der Lage, einige der Hauptfarben zu identifizieren. Es gibt keine Software, die alles automatisch macht - anders, als viele Leute denken." Das digitale Kolorieren, räumt sie ein, hat allerdings Grenzen. Entscheidend sei die Qualität des Originals. Die ursprüngliche Fotografie sollte keine starken Kontraste aufweisen, besser eine breite Palette mittlerer Grauwerte. Aber auch dann liefern analoge Aufnahmen keine Farbinformationen mit - es gibt keinen standardisierten Rückschluss von einem bestimmten Grauton auf die Originalfarbe." Der letzte Satz war das, was ich wissen wollte. https://www.spiegel.de/geschichte/nachkolorierte-schwarzweiss-fotos-eine-neue-dimension-a-1098796.html
Nach Wissen Durstender schrieb: > Ich dachte eher daran, dass man ein S/W-Video wo durchlaufen lässt und > nach einer Tasse Kaffee hat man ein perfektes Ergebnis vorliegen. Nichts einfacher als das. Du musst nur folgende Formel nach R, G und B umstellen:
1 | y = 0.3 · r + 0.59 · g + 0.11 · b |
Mario M. schrieb: > Nichts einfacher als das. Du musst nur folgende Formel nach R, G und B > umstellen:
1 | y = 0.3 · r + 0.59 · g + 0.11 · b |
Ich bin ziemlich sicher, dass dieser verfickte Traffic-Troll diesen Zusammenhang längst kennt und auch sehr wohl über das Problem der Nicht-Eineindeutigkeit Bescheid weiß. Ich könnte sogar mit einiger Sicherheit angeben, unter welchen Pseudos dieses Arschloch sonst noch so auftrat (mit ähnlichem Intentionen). Das ist halt nur einer dieser vermaledeiten Traffic-Trolls. Was mir immer unklar bleiben wird: was haben diese Typen davon? Wichsen die sich einen und die Intensität des Orgasmus steigt mit der Länge des generierten Threads? Oder werden die vom Site-Betreiber dafür bezahlt? Das würde immerhin wenigstens einen wirtschaftlichen Sinn ergeben.
Einfärben ist simple, das ist so easy, das schafft man nahezu täuschend echt. Stichwort Galton-Brett: https://www.youtube.com/shorts/tJOTAou0fzw
Oder man versucht einen normalen Film so aussehen zu lassen wie nachträglich coloriert: Rotoskopie. Bspw. A scanner darkly, 2006 https://youtu.be/hkjDUERgCQw?t=49
Nach Wissen Durstender schrieb: > Ich dachte eher daran, dass man ein S/W-Video > wo durchlaufen lässt und nach einer Tasse Kaffee hat man ein perfektes > Ergebnis vorliegen. So verhält es sich offensichtlich nicht. Eigentlich schon. Es muss nur eine große Tasse sein ;) Normal macht man das so. Man definiert eine Farbpalette von 254 Farben + weiß + Schwarz. Nun tauscht man per Software die passenden Pixel aus. Danach geht man mit Weichzeichner drüber und das ganze symmetrisch zu machen. Wobei meist dieser "Pastel"-Effekt auftritt. Je nach Algorithmus entsteht dann ein brauchbarer Film. Hier sind z.b. einige Tipps wie man das mit FREEWARE machen kann. https://www.slashcam.de/forum/viewtopic.php?t=21169&p=79173&PageSpeed=noscript Habe ich aber nie probiert.
Naja man muß nur eine Palette mit 256 Farbwerten zu definieren die zu den 256 Graustufen passt und dann ist es eine einfache Sache :)
Schlaumaier schrieb: > Normal macht man das so. Man definiert eine Farbpalette von 254 Farben + > weiß + Schwarz. Ich hab den Eindruck das sind weniger Farben und die Wechseln auch recht heftig in der Bewerbung. Ist auch die Frage, ob das SW-Material 256 Abstufungen hergibt. Da mal ne Nachkoleration eine Orginals von 1910: https://youtu.be/LIiK3rH2hXc?t=79 wind icj reichlich unnatürlich ins Farbschema: "Whüstenkhaki" gedrückt. Und da mal ne echte Ferbaufnahme ohne Computer: https://youtu.be/CoV_DYIjEWw?t=269
Lutz Locus schrieb: > Ist auch die Frage, ob das SW-Material 256 Abstufungen hergibt. Das tut es IMMER. 8 Stufen sind zu wenig.Und 1 Stufe fg löl. Lutz Locus schrieb: > Ich hab den Eindruck das sind weniger Farben und die Wechseln auch recht > heftig in der Bewerbung. Das ist das selbe Problem wie bei drehen eines Filmes. Da muss der Beleuchter auch bei jeder Scene seine Lampen neu einstellen. Hier ist es so, das du die Palette nach jeder Scene /Perspektive neu anpassen musst. Stell dir einfach 2 Scenen im Krimi vor. Die schöne Lady liegt Mittags am Strand. Wichtigste Farben wären dann Blau + beige. Nachts ist die Lady in einer alten Kneipe. Wichtigste Farben sind nun Brauntöne. Nachcolorieren ist eine saumässige Arbeit selbst mit KI und Co.
Schlaumaier schrieb: > Das ist das selbe Problem wie bei drehen eines Filmes. Da muss der > Beleuchter auch bei jeder Scene seine Lampen neu einstellen. Hier ist es > so, das du die Palette nach jeder Scene /Perspektive neu anpassen musst. Da mal ein colorierter Film, bei dem eigentlich der Beleuchter für Konstanz gesorgt hat, sit trotzdem stark schwankend in de Nachbearbeitung: https://youtu.be/Be955EMr13o?t=85 Hinzukommt, das für Schwarz-Weiss Aufnahmen grünes Make-Up verwendet wurde, um mehr Helligkeit reinzubringen. Das willst natürlich nicht auf der colorierten Fassung haben.
Peter N. schrieb: > tut nix zur Sache schrieb: >> Im Photoshop gibts auch ein glaube mehr >> oder weniger kostenloses Plugin von Adobe, da siehts sogar noch >> schlimmer aus (Stand: meine Ausprobierung von vor 2 Monaten). > > Ich weiß nicht, ob mit Photoshop, aber ich habe schon von Hobbyisten > nachkolorierte Bilder gesehen, die sahen hervorragend aus, kaum von > echten Farbaufnahmen zu unterscheiden. Durchaus möglich, per Hand lassen sich etliche Sachen korrigieren und richtig machen. Die Ergebnisse von die Adobe's "NeuralFilters" (der fairerweise dazu gesagt, wohl noch Beta-Status ist), kann man halt vergessen. Hatte das mit Scans alter Sepia-Bildern einer Plattenkamera probiert, Ergebnis war Grütze. Auch ne Wandlung nach Monochrom mit GoogleNik und auch ohne war für die Katze. Deswegen: aktuell find ich den Hype um die AI-Filter noch überzogen, zumindest für ernstgemeinte Sachen. Vielleicht funktionieren die Luminar-Programme da mittlerweile besser, solchen Schnulli wie Himmel durch was anderes zu ersetzen konnte es ganz gut. - könnte vielleicht mal noch nen Versuch wert sein.
Also abgesehen von den vielen Verfahren mit denen man "realistische" Farbe hinzurechnet gibt es auch ganz klassisch die "Colourizer". Das waren Geräte welche das geklemmte Videosignal durch ein paar Komparatoren schickten und es somit in diskrete Bereiche aufteilten (ähnlich der A/D-Wandlung per PCM). Dann konnte man jede der Helligkeitsstufen ein anderes Farbsignal zuweisen. Das Ergebnis war dann natürlich überhaupt nicht realistisch, aber halt künstlerisch verfremdet. Man hat das auch bei analogen Graphikcomputern gemacht um da Farbe zu generieren, hier ein Beispiel: https://youtu.be/SLdhGK_E0eA?t=31
Schlaumaier schrieb: > Normal macht man das so. Man definiert eine Farbpalette von 254 Farben + > weiß + Schwarz. > > Nun tauscht man per Software die passenden Pixel aus. Das funktioniert überhaupt nicht, weil der gleiche Grauwert je nach Position im Bild völlig verschiedene Farben repräsentieren kann. Bspw. könnte ein hellgraues Pixel in der S/W-Aufnahme zum blauen Himmel, zu einer gelben Zitrone oder zu einem rosaroten Schweinchen gehören. Eine Kolorierung der Aufnahme kann nur funktionieren, wenn die KI die Objekte Himmel, Zitrone und Schweinchen als solche erkennt. Bei der schier unendlichen Zahl von Objekttypen in der realen Welt ist die halbwegs zuverlässige Erkennung durch eine KI nach dem derzeitigen Stand der Technik aber kaum möglich. Lutz Locus schrieb: > Da mal ne Nachkoleration eine Orginals von 1910: > https://youtu.be/LIiK3rH2hXc?t=79 wind icj reichlich unnatürlich ins > Farbschema: "Whüstenkhaki" gedrückt. Wenn sich die KI nicht sicher auf eine bestimmte Farbe festlegen kann (was aus den o.g. Gründen fast immer der Fall ist), entscheidet sie sich für eine, die statistisch gesehen etwa in der Mitte aller real vorkommenden und nach Häufigkeit gewichteten Farben liegt, und das sind eben die Brauntöne von khaki bis dunkelbraun, je nach Helligkeit der entsprechenden Bereiche in der S/W-Aufnahme.
Yalu X. schrieb: > Wenn sich die KI nicht sicher auf eine bestimmte Farbe festlegen kann > (was aus den o.g. Gründen fast immer der Fall ist), entscheidet sie sich > für eine, die statistisch gesehen etwa in der Mitte aller real > vorkommenden und nach Häufigkeit gewichteten Farben liegt, und das sind > eben die Brauntöne von khaki bis dunkelbraun, je nach Helligkeit der > entsprechenden Bereiche in der S/W-Aufnahme. Das schadet den alten Aufnahmen bei der Nachkolorierung nicht. Dann entsteht der Sepia-Effekt, wie eben bei allem, was vergilbt ist.
Andreas M. schrieb: > Das schadet den alten Aufnahmen bei der Nachkolorierung nicht. > Dann entsteht der Sepia-Effekt, > wie eben bei allem, was vergilbt ist. Schon, aber Ziel der Nachkolorierung ist ja eigentlich, den Film moderner und nicht noch älter als die S/W-Aufnahme aussehen zu lassen.
Hallo Andreas M. schrieb: > Das schadet den alten Aufnahmen bei der Nachkolorierung nicht. > Dann entsteht der Sepia-Effekt, > wie eben bei allem, was vergilbt ist. Schaden tut es nicht - aber die typischen Ergebnisse stehen meiner Meinung nach in keinen Verhältnis zum vermutlichen Aufwand. "Einfaches" Digitales "Entstören" und "Putzen" ohne Colorierung bringt deutlich mehr bei weniger Aufwand (und wohl auch kosten). Wobei je mehr "Schwarz-Weiß" und "Matsch" anstatt feine Graustufen mit viel Dynamik und vernünftiger Schärfe umso sinnloser (viel Aufwand für fast nichts) wird auch das Digitale Nachbearbeiten.
Yalu X. schrieb: > Eine > Kolorierung der Aufnahme kann nur funktionieren, wenn die KI die Objekte > Himmel, Zitrone und Schweinchen als solche erkennt. Bei der schier > unendlichen Zahl von Objekttypen in der realen Welt ist die halbwegs > zuverlässige Erkennung durch eine KI nach dem derzeitigen Stand der > Technik aber kaum möglich. Das Erkennen und erstmal eine (vermutliche) Farbe zuweisen, da ist der Mensch immer noch jeder KI haushoch überlegen. Was aber wohl schon recht gut geht, ist ein einmal zugewiesenes Objekt über eine gesamte Szene hinweg quasi zu verfolgen und entsprechend zu bearbeiten. Somit muss eben nicht mehr jedes Bild einzeln bearbeitet werden, sondern "nur" noch jede Szene.
Faszinierend ist das schon, aber die meisten uralten nachkolorierten sehen irgendwie matschig aus. Leider kenne ich die s/w-Originale nicht, sind die auch schon so unscharf, war damals einfach kein besseres Bild möglich? Dann müsste die KI zusätzlich noch Gesichter usw. "erfinden".
Oliver S. schrieb: > Leider kenne ich die s/w-Originale nicht, sind die auch schon so > unscharf, war damals einfach kein besseres Bild möglich? Altes Filmmaterial ist naturgemäß nicht sehr scharf. Das ist aber nur ein Teil des Problems. Der größere Teil der "Matschigkeit" resultiert aus der modernen Aufarbeitung, sprich der Entfernung der Körnigkeit des alten Filmmaterials (also effektiv: des Rauschens) und der Entfernung von von Staub und Kratzern. Das ist aber Vorbedingung dafür, dass die Algorithmen zur Objektidentifikation überhaupt halbwegs zuverlässig arbeiten können.
Hallo Oliver S. schrieb: > Leider kenne ich die s/w-Originale nicht, sind die auch schon so > unscharf, war damals einfach kein besseres Bild möglich? Dann müsste die > KI zusätzlich noch Gesichter usw. "erfinden". An was es auch liegt hat ja "c-hater" erklärt - und ja es ist tatsächlich so - einen Tod muss man wohl sterben- und echtes Filmrauschen (Chemischer Film) ist für die meisten weit weniger störend ... Bezüglich deiner "Idee": Wäre das überhaupt noch ein "echter" Film (als digital codierte Datei) oder nicht schon ein Animationsfilm aus dem Computer der dann sehr schnell wie z.B. der "Avatar" Film wirkt...? "Gemachte" Realität ?
c-hater schrieb: > Der größere Teil der "Matschigkeit" resultiert aus der modernen > Aufarbeitung, sprich der Entfernung der Körnigkeit des alten > Filmmaterials (also effektiv: des Rauschens) und der Entfernung von von > Staub und Kratzern. Naja, das Rauschen ensteht erst durch die Digitalisierung. Alte Fotos sind nur Matchig weil bei der Entwicklung (Erstellung der Abzuge vom Original) die Körnergrenzen nicht abgebildet werden. Also beim Negativen (insbesonders die mit hohem ISO-Zahl) und Druckvorlagen hat man mehr Körnigkeit als beim Endprodukt auf Filmpapier. Eine Überabtastung und erst recht die Löchrige Bayermatrix schafft da Rauschen wo ursprünglich nichts war. Das Wissen um analoge Fotografie scheint aber seit verloren gegangen zu sein, in der WP finden sich nur Bruckstückhafte Darstellungen, die auch noch einseitig auf die Nachteile gegenüber der Digitalisierung fokussiert sind: https://de.wikipedia.org/wiki/Korn_(Foto) https://de.wikipedia.org/wiki/Entwicklung_(Fotografie) Auch beim alten Film hatte man die Wahl zwischen hoch- und normalauflösend, bei Hochauflösung nahm man grossfaächigene (breite) Filmrollen (Kino: 70mm, Standbild:Rollfilm (60x90). Und mit dem erzielt man besseres Ergebnisse als mit der Massenware 35mm oder Kleinbild (24x36). Braucht aber dafür extra Kameratechnik. https://en.wikipedia.org/wiki/70_mm_film
Lutz Locus schrieb: > In der Privatwirtschaft ist jeder Anwender privat. Bahnbrechende Erkenntnis! ;-)
Naja, vom Ergebnis her: hängt sicher auch vom Ausgangsmaterial ab. Wie bei Musikaufnahmen: ist die Aufnahme nicht so toll, dann die Digitalisierung meist auch nicht. Analog Musikkassette: War doch immer OK, z.B. als Muski fürs Auto, oder um die Schallplatte vor Kratzer zu bewahren. Das ist bei bestimmten Blicken in die Vergangenheit nicht anders: Deutschland 1945: Sensationell restaurierte Filmaufnahmen von George Stevens https://www.youtube.com/watch?v=Hwy8SzVmWGc 16:50
Interessant. Aber gibt es auch bereits Lösungen mittels KI alte / schlechte Aufnahmen in HD Qualität zu konvertieren? Auch hier kann man ja aus bekanntem explorieren. Man könnte die KI auch mit hochauflösenden Fotos der Schauspieler füttern, oder diese durch andere ersetzen, oder künstlerisch aufhübschen lassen. Gleiches mit anderen Gegenständen im Film.
Thomas schrieb: > Aber gibt es auch bereits Lösungen mittels KI alte / schlechte Aufnahmen > in HD Qualität zu konvertieren? Dazu fällt mir ein: Gibt es bereits KIs, die aus einen Haufen verschiedener Fotos z.B. einer Person ein 3D-Abbild errechnen können? Ich meine nicht Photogrammetrie.
Lutz Locus schrieb: > Eine Überabtastung und > erst recht die Löchrige Bayermatrix schafft da Rauschen wo ursprünglich > nichts war. Sicher? Die Bayersensoren kommen doch heute mit einer Auflösung von 6k Punkten pro Achse und haben gerade 1 Zoll. Das sind 200 Punkte je 5mm. In Farbe 100. Das sollte wohl reichen oder? Jedenfalls bei Filmscannern.
Thomas schrieb: > Man könnte die KI auch mit hochauflösenden Fotos der > Schauspieler füttern, oder diese durch andere ersetzen, oder > künstlerisch aufhübschen lassen Ich hoffe doch nicht... Schauspieler (oder gar Politiker, Wissenschaftler, irgendwann dann Privat oder als Dienstleistung Angehörige) wiederauferstehen lassen und mit denen dann Geld machen bzw. bei Angehörigen sich eine Scheinwelt (am besten als 3D Hologramm...) aufbauen... Horror! Ignorieren der Realität... Was für "Filme" dann hergestellt werden würden möchte ich mir gar nicht ausmalen, bzw. was an Geschichtsfälschung mit "passenden Beweis" möglich wäre und sicher auch gemacht werden würde... Nein, bitte nein
Alb Träumer schrieb: > Ich hoffe doch nicht... > Schauspieler (oder gar Politiker, Wissenschaftler, irgendwann dann > Privat oder als Dienstleistung Angehörige) wiederauferstehen lassen zu spät: https://www.youtube.com/watch?v=lQYLe_-26TE&ab_channel=faz https://www.youtube.com/watch?v=aVN-EFNl0zQ&ab_channel=WELTNetzreporter
:
Bearbeitet durch User
Alb Träumer schrieb: > Schauspieler (oder gar Politiker, Wissenschaftler, irgendwann dann > Privat oder als Dienstleistung Angehörige) wiederauferstehen lassen und > mit denen dann Geld machen bzw. bei Angehörigen sich eine Scheinwelt (am > besten als 3D Hologramm...) aufbauen... Horror! https://www.turn-on.de/article/8-tote-schauspieler-die-per-cgi-auf-die-leinwand-zurueckkehrten-310837?from=https%3A%2F%2Fwww.google.de%2F
Alb Träumer schrieb: > Schauspieler (oder gar Politiker, Wissenschaftler, irgendwann dann > Privat oder als Dienstleistung Angehörige) wiederauferstehen lassen und > mit denen dann Geld machen Wie war das mit Marylyn Monroe in einer Butterwerbung...?
Peter N. schrieb: > Thomas schrieb: >> Aber gibt es auch bereits Lösungen mittels KI alte / schlechte Aufnahmen >> in HD Qualität zu konvertieren? > > Dazu fällt mir ein: > Gibt es bereits KIs, die aus einen Haufen verschiedener Fotos z.B. > einer Person ein 3D-Abbild errechnen können? > Ich meine nicht Photogrammetrie. Au ja, Dick und Doof (Oliver Hardy und Stan Laurel) in HD, in 3D und in Farbe... Und nicht den Ton vergessen: Mindestens HiFi und Dolby Surround-Sound.
Alb Träumer schrieb: > Nein, bitte nein Ist wie mit jeder anderen Technologie auch: Entweder man ist dabei, oder nicht. In DE sind wir immer häufiger nicht dabei.
Thomas schrieb: > Aber gibt es auch bereits Lösungen mittels KI alte / schlechte Aufnahmen > in HD Qualität zu konvertieren? Ja. Such mal nach Baywatch HD auf Youtube.
Peter N. schrieb: > Dazu fällt mir ein: > Gibt es bereits KIs, die aus einen Haufen verschiedener Fotos z.B. > einer Person ein 3D-Abbild errechnen können? > Ich meine nicht Photogrammetrie. Schon mal was von deepfake gehört?
Lebensberatung schrieb: > Thomas schrieb: >> Aber gibt es auch bereits Lösungen mittels KI alte / schlechte Aufnahmen >> in HD Qualität zu konvertieren? > Ja. Such mal nach Baywatch HD auf Youtube. Oh halt, das Urmaterial wurde auf 35mm gefilmt und neu gescanned, nix KI-Hochrechnung.
Lebensberatung schrieb: > Schon mal was von deepfake gehört? https://www.youtube.com/watch?v=cQ54GDm1eL0 https://www.youtube.com/watch?v=EtEPE859w94 https://www.youtube.com/watch?v=mPU0WNUzsBo https://www.youtube.com/watch?v=oxXpB9pSETo
:
Bearbeitet durch User
Peter N. schrieb: > Gibt es bereits KIs, die aus einen Haufen verschiedener Fotos z.B. > einer Person ein 3D-Abbild errechnen können? Das Problem ist so einfach, dass es schon vor Jahren ohne KI möglich war. Klar, man kann da auch eine KI drauf werfen, aber mit Software wie "Meshroom" kriegt man das auch ohne hin, auch wenn man da vielleicht ein paar Input-Bilder mehr braucht. https://github.com/alicevision/Meshroom Youtube hat haufenweise Tutorials dazu... https://www.youtube.com/watch?v=9Ul9aYhm7O4
Εrnst B. schrieb: > Klar, man kann da auch eine KI drauf werfen, aber mit Software wie > "Meshroom" kriegt man das auch ohne hin, auch wenn man da vielleicht ein > paar Input-Bilder mehr braucht. Das wäre aber: Peter N. schrieb: > Photogrammetrie
Rolf M. schrieb: > Εrnst B. schrieb: >> Klar, man kann da auch eine KI drauf werfen, aber mit Software wie >> "Meshroom" kriegt man das auch ohne hin, auch wenn man da vielleicht ein >> paar Input-Bilder mehr braucht. > > Das wäre aber: > Peter N. schrieb: >> Photogrammetrie Das wäre es aber auch, wenn die Auswertung der Bilder mittels KI erfolgen würde. Der Begriff "Photogrammetrie" beinhaltet kein konkretes Auswerteverfahren. Die Frage von Peter N. hätte deswegen richtigerweise lauten müssen: Können in der Photogrammetrie auch KI-Verfahren eingesetzt werden? Wobei dann noch festzulegen wäre, was KI-Verfahren sind. Sind das nur Neuronale Netze, oder gibt es auch noch weitere?
Yalu X. schrieb: > Die Frage von Peter N. hätte deswegen richtigerweise lauten müssen: > Können in der Photogrammetrie auch KI-Verfahren eingesetzt werden? Ich hatte die Frage eher so verstanden, dass es um Fotos geht, die nicht alle auf einmal unter kontrollierten Bedingungen speziell mit dem Zweck der Erstellung eines 3D-Modells aufgenommen wurden, sondern z.B. einfach viele Fotos in unterschiedlichsten Situationen z.B. alle Bilder eins Prominenten, die Google ausspuckt. Damit kann man mit Meshroom absolut nichts anfangen. Selbst speziell für die Photogrammetrie gemachte Bilderreihen von Personen sind da kaum sinnvoll zu nutzen, weil das Motiv über die komplette Session unbedingt bewegungslos bleiben muss. Schon bei geringen Bewegungen steigt der Nachbearbeitungs-Aufwand gewaltig an. Bei Menschen kommt dann sowas raus: https://www.reddit.com/r/photogrammetry/comments/jxtgcm/meshroom_i_took_26_photos_of_my_friend_with_a/ Und selbst wenn man dann ein hochqualitatives 3D-Modell zuzüglich den passenden Material-Einstellungen für wirklich realistisches Rendering zusammenbekommen hat, ist es immer noch erst mal einfach statisch. Das realistisch zu animieren erfordert nochmal einen sehr großen Aufwand. Alles nicht unmöglich, aber diese Aussage finde ich etwas irreführend: Εrnst B. schrieb: > Das Problem ist so einfach, dass es schon vor Jahren ohne KI möglich > war. Möglich ja, aber einfach mit Sicherheit nicht.
:
Bearbeitet durch User
Rolf M. schrieb: > Ich hatte die Frage eher so verstanden, dass es um Fotos geht, die nicht > alle auf einmal unter kontrollierten Bedingungen speziell mit dem Zweck > der Erstellung eines 3D-Modells aufgenommen wurden, sondern z.B. einfach > viele Fotos in unterschiedlichsten Situationen z.B. alle Bilder eins > Prominenten, die Google ausspuckt. Das wäre dann eben Photogrammetrie unter erschwerten Bedingungen :)
Als die Schwarz-Weiß-Filme gedreht wurden, hat man mit Absicht falsche Farben genommen, damits in SW richtig aussieht. Zum Beispiel kamen pinke Stürmpfe in SW nicht richtig rüber, daher trug die Schauspielerin andere Farben. Wenn du nun wieder kolorierst, musst du mit dem falschen Ergebnis leben.
Bartosz B. schrieb: > Als die Schwarz-Weiß-Filme gedreht wurden, hat man mit Absicht falsche > Farben genommen, damits in SW richtig aussieht. Zum Beispiel kamen pinke > Stürmpfe in SW nicht richtig rüber, daher trug die Schauspielerin andere > Farben. > Wenn du nun wieder kolorierst, musst du mit dem falschen Ergebnis leben. Heißt das jetzt, daß man beim kolorieren für die Strümpfe nicht "pink" sondern die Originalfarbe verwenden soll?
Peter N. schrieb: > Bartosz B. schrieb: >> Als die Schwarz-Weiß-Filme gedreht wurden, hat man mit Absicht falsche >> Farben genommen, damits in SW richtig aussieht. Zum Beispiel kamen pinke >> Stürmpfe in SW nicht richtig rüber, daher trug die Schauspielerin andere >> Farben. >> Wenn du nun wieder kolorierst, musst du mit dem falschen Ergebnis leben. > > Heißt das jetzt, daß man beim kolorieren für die Strümpfe nicht "pink" > sondern die Originalfarbe verwenden soll? Es heißt, dass die Helligkeit nicht zu pink passt. Wenn man es jetzt wieder Pink einfärben will, ist die Schattierung falsch.
Rolf M. schrieb: > Es heißt, dass die Helligkeit nicht zu pink passt. Wenn man es jetzt > wieder Pink einfärben will, ist die Schattierung falsch. Verstehe ich nicht so recht. Pink reicht, wie jede andere Farbe, von ziemlich dunkel bis ziemlich hell. Dann trifft man nicht die Helligkeit, die das damals beabsichtigte Pink haben sollte, aber das ist egal. Notfalls kann man ja die Helligkeit auch noch anpassen.
Wegen pink oder schweinchenrosa: Interessant ist, das in Zeiten des S/W-Fernsehens andere Prioritäten herrschten. Der Kontrast spielte eine Rolle, die Farbe weniger. Denn dunkelgrün hebt sich kaum von dunkelrot ab. Interessantes Beispiel, an welches ich mich erinnere: Bei Übertragungen von Fußballspielen mussten die Trikots bis weit in die 70er Jahre noch dergestalt ausgesucht werden, dass die Spieler beider Mannschaften auf S/W-Fernsehern zu unterscheiden waren. Ich las mal, dass bei Einführung des Farbfernsehens plötzlich sehr genau auf farblich passende Kleidung (der Nachrichtensprecher etc.) geachtet wurde. Mit Farbtabellen etc. Leider habe ich keine Quelle zur Hand. Und dann war da noch der Moiré-Effekt bei karierten Anzügen oder Röcken.
Peter N. schrieb: > Als Kind hatten wir auch nur einen SW-Fernseher, sollte also gewohnt > sein. Die Wunderfolie konnte auch blauen Himmel und grünes Gras machen
Saxofonist schrieb: > Die Wunderfolie konnte auch blauen Himmel und grünes Gras machen Sowas wollte uns damals ein Vertreter auch andrehen...
Robert K. schrieb: > Dieter schrieb: >> Das macht man heute mit KI-Bilderkennung > > https://palette.fm/ Wow, bin sehr beeindruckt! Vorallem kann man eigene Wünsche einfach als Text formulieren und die KI setzt dies dann mehr oder weniger gut um.
Nach vier sw-Fotos ist anscheinend Schluß. Sehr hübsch!
Peter N. schrieb: > Sowas wollte uns damals ein Vertreter auch andrehen... Ein Vertreter?? Also so ein Schmierlappen der von Haus zu Haus tingelt? Hausfrauen schwänhgerte und dabei 20-Cent Overheadfolien verkaufen? Früher haben wir Frischfolie auf den Fernsehr gespannt und mit Stiften bemalt! Das war ein Heyenspaß für Kinder und auch Eltern! Und dr Himmer blau und das Gars grün!
Benedikt L. schrieb: > Früher haben wir Frischfolie auf den Fernsehr gespannt Frischhaltefolie gab es damals noch nicht, nur Butterbrotpapier. Das muß so Mitte 60er gewesen sein.
Peter N. schrieb: > Frischhaltefolie gab es damals noch nicht, nur Butterbrotpapier. > Das muß so Mitte 60er gewesen sein. 3D Guckerei war auch irgendwie immer so ein komischer Schwarzweiß-Farb-Mischmasch. 3D Postkarten funktionieren scheinbar besser, die kann man ohne besondere Brille bestaunen. Skyrim VR hat zwar nichts mit Farbe oder 3D zu tun, aber die zusätzlichen Spielmöglichkeiten sind schon neu. Krieg der Sterne war jetzt auch nicht 3D, aber hatte nicht den Eindruck, dass was wichtiges fehlt. Wenn allerdings der Geruchssinn sensibler wird..
rbx schrieb: > Krieg der Sterne war jetzt auch nicht 3D, aber hatte nicht den Eindruck, > dass was wichtiges fehlt. Ich schon. Der Mensch hat zwei Ohren, damit er räumlich hören kann. Alle Welt will Dolby Atmos und Konsorten. Der Mensch hat auch zwei Augen, damit er räumlich sehen kann. Trotzdem will niemand 3D-Fernsehen und 3D-Kino. Menschen sind unlogisch.
Smith schrieb: > Der Mensch hat auch zwei Augen, damit er räumlich sehen kann. Trotzdem > will niemand 3D-Fernsehen und 3D-Kino. > > Menschen sind unlogisch. Nope, bei menschen mit Logik kompensiert die Vorstellungskraft fehlendes 3D. Ein Film funktioniert eben wegen der Dramaturgie und der Anregung des Kopfkinos, nicht wegen der bildlichen Tiefe.
IQ spaltet schrieb: > Nope, bei menschen mit Logik kompensiert die Vorstellungskraft fehlendes > 3D. Wäre das so einfach, hätte die Evolution uns nur ein Auge gegeben. IQ spaltet schrieb: > Ein Film funktioniert eben wegen der Dramaturgie und der Anregung des > Kopfkinos Es gibt Menschen, die haben kein Kopfkino: https://de.wikipedia.org/wiki/Afantasie
c-hater schrieb: > Oliver S. schrieb: > >> Leider kenne ich die s/w-Originale nicht, sind die auch schon so >> unscharf, war damals einfach kein besseres Bild möglich? > > Altes Filmmaterial ist naturgemäß nicht sehr scharf. Das ist aber nur > ein Teil des Problems. > > Der größere Teil der "Matschigkeit" resultiert aus der modernen > Aufarbeitung, sprich der Entfernung der Körnigkeit des alten > Filmmaterials (also effektiv: des Rauschens) und der Entfernung von von > Staub und Kratzern. > > Das ist aber Vorbedingung dafür, dass die Algorithmen zur > Objektidentifikation überhaupt halbwegs zuverlässig arbeiten können. Das "Weichspülen" ist nur ein Teil des Problems. Gerade bei alten Filmen ist nicht immer das Originalfilmmaterial noch erhalten, sondern nur noch irgendwelche Kopien (oder gar Kopie der Kopie). Teilweise auch noch auf verkleinerten Formaten. Schön das damals in der Kamera vielleicht ein 70mm Film drin war, wenn davon aber nur noch eine 16mm Kopie erhalten ist, ist es schwierig mit einfach mal neu/besser scannen. Wenn diese dann auch noch schon zig mal vorgeführt wurde, ist die Qualität des Ausgangsmaterials für eine weitere Bearbeitung schon stark eingeschränkt. Gutes Beispiel hierfür ist der Film Metropolis, das ja aus mehreren Quellen wieder zusammengesetzt wurde. Da sieht man schön die teils erheblichen Qualitätsunterschiede. - https://de.wikipedia.org/wiki/Metropolis_(Film)#Wiesbaden_2010 - https://de.wikipedia.org/wiki/Filmlager-Brand_in_den_20th_Century_Fox_Studios - https://de.wikipedia.org/wiki/Zelluloidfilm#Lagerung
Yalu X. schrieb: > Das funktioniert überhaupt nicht, weil der gleiche Grauwert je nach > Position im Bild völlig verschiedene Farben repräsentieren kann. Bspw. > könnte ein hellgraues Pixel in der S/W-Aufnahme zum blauen Himmel, zu > einer gelben Zitrone oder zu einem rosaroten Schweinchen gehören. Eine > Kolorierung der Aufnahme kann nur funktionieren, wenn die KI die Objekte > Himmel, Zitrone und Schweinchen als solche erkennt. Alles richtig, aber > Bei der schier > unendlichen Zahl von Objekttypen in der realen Welt ist die halbwegs > zuverlässige Erkennung durch eine KI nach dem derzeitigen Stand der > Technik aber kaum möglich. ich denke, das hängt zunächst vor allem von den Daten ab, mit denen die KI trainiert worden ist. Wenn man sich Farbfilmsequenzen heraussucht, die den zu Kolorierenden möglichst stark ähneln und in denen natürlich die Objekte vorkommen sollten, die es auch im zu kolorierenden Film gibt, kann man mit genug Zeit und Rechenaufwand sicher ganz gute Ergebnisse bekommen. > Wenn sich die KI nicht sicher auf eine bestimmte Farbe festlegen kann > (was aus den o.g. Gründen fast immer der Fall ist), entscheidet sie sich > für eine, die statistisch gesehen etwa in der Mitte aller real > vorkommenden und nach Häufigkeit gewichteten Farben liegt, und das sind > eben die Brauntöne von khaki bis dunkelbraun, je nach Helligkeit der > entsprechenden Bereiche in der S/W-Aufnahme. Das hängt wohl von den gewählten Algorithmen ab, schätze ich, vor allem von den Fehlermetriken und dem Optimierer.
Also das mit dem Vorstellungsvermögen: man kann es auf jeden Fall üben (ähnlich wie Kartenhäuser bauen, braucht aber wohl etwas länger), und was auch gut ist, das ist die Kommunikation der beiden Gehirnhälften miteinander anzuheizen - wie man sich das so vorstellt - mit Übungen, wie eine 8 im Geiste durchzufahren (wie Carrera-Bahn z.B.) oder Schlangenlinien von oben nach unten mit den Augen verfolgen. Schnelle Augenbewegungen (durch Verfolgung von Objekten) sind auch nach Schlaganfällen sehr hilfreich, z.B. um wieder besser zwischen Bild oder kein Bild unterscheiden zu können. Nicht nur das: es scheint auch ganz gut zu Bearbeitung von Problemen mit traumatischen Erfahrungen zu helfen. Die Therapie selber ist so ein wenig in der Diskussion. Was aber auf jeden Fall hilft bei der Betrachtung der Ausgangssituation, ist die der Wissenschaftlerin zu kennen. Die hatte selber erklärt, das ihr selbst das schnelle Hin- und Herschauen geholfen hatte. Ich hatte damals unseren besten Prof (Veröffentlichungsrekord) dazu gefragt. Viel konnte der auch nicht sagen außer, dass er meinte, die Kommunikation der beiden Gehirnhälften wird besser. Viel genaues über den Hintergrund weiß man nicht - aber man kann sich nähern und man kennt die Schlafrythmen, und es gibt auch bei den Schlaganfällen gute Fortschritte (Stroke-Units, Computerprogramme für die Reha). Sicher auch nicht schlecht ist Fähigkeit, zu fokussieren..
Smith schrieb: > Der Mensch hat auch zwei Augen, damit er räumlich sehen kann. Trotzdem > will niemand 3D-Fernsehen und 3D-Kino. Wie willst du das denn hinbekommen? Die Methoden, jedem Auge eigene Bildinformationen zukommen zu lassen mittels Farb-, Polarisations- oder Shutterbrillen funktioneren mehr schlecht als recht, und spätestens bei Brillenträgern gar nicht mehr. Holodecks sind noch nicht erfunden. Direktes Einspielen ins Gehirn auch nicht. Bleibt als nur die VR-Brille. Aber stell die mal eine Menge Menschen vor, von denen jeder eine VR-Brille trägt, die in dem Kinosaal durcheinanderlaufen... Hinzu kommt, daß mein 3D-Empfinden weniger durch die Blickwinkel meiner Augen, sondern mehr durch die Bewegungsebenen zwischen Vorder- und Hindergrund erzeugt wird.
Hallo Das es "1001" Anläufe bei der 3D Videowiedergabe gegeben hat und sich nichts im Konsumerbreich durchgesetzt hat und selbst beim "großen Kino" immer eine Ausnahme ist zeigt ja wie technisch Problematisch das ganze ist und wie wenig es letztendlich wirklich nachgefragt ist. Alle paar Jahre (Jahrzehnte) gibt es immer mal wieder einen kurzen Hype der sich aber nicht wirklich durchsetzt (Konsumerbreich, als Massenmedium, als Kinolockmittel, bei Nischenwendungen in Wissenschaft, Industrie und Forschung und sogar bei "Hardcoregamern" mag das anders sein). 3D ist für die meisten gar nicht so wichtig - vor allem wenn es um den Inhalt des Filmes und nicht um "billige" Effekte geht - vor allem weil das "übliche" 3D auch wenig mit den 3D Sehen aus den echten Leben gemein hat - wie oft fliegt man in Folge eine Explosion denn so durch die Gegend, wie oft sitzt man im Kampfjet oder als Passagier auf einen Pfeil der von irgendwelchen Phanstasiegestalten (Avatar) abgeschossen wird...? Eher doch selten... IQ spaltet schrieb: > Ein Film funktioniert eben wegen der Dramaturgie und der Anregung > des Kopfkinos, nicht wegen der bildlichen Tiefe. Das ist es doch - das ist es was die typischen Mega Blockbuster die schon nach 3 Jahren vergessen sind von Filmen unterscheidet die auch nach 50, 100 Jahren einzigartig sind und auch heute noch sehr gut funktionieren.
Beim 3D kommt noch hinzu daß das Auge nicht auf unterschiedliche Abstände fokussieren muß obwohl dem Gehirn unterschiedliche Ebenen vorgegaukelt werden. Deswegen ist das für mich auch zu anstrengend einen ganzen Film in 3D zu schauen.
Smith schrieb: > Der Mensch hat auch zwei Augen, damit er räumlich sehen kann. Trotzdem > will niemand 3D-Fernsehen und 3D-Kino. > > Menschen sind unlogisch. unlogisch ist der Ton von überall her, wenn das Bild nur von vorne kommt
●DesIntegrator ●. schrieb: > unlogisch ist der Ton von überall her, wenn das Bild nur von vorne kommt Das ist aber in der Realität auch so, oder hast du hinten Augen?
:
Bearbeitet durch User
Andreas M. schrieb: > ●DesIntegrator ●. schrieb: >> unlogisch ist der Ton von überall her, wenn das Bild nur von vorne kommt > > Das ist aber in der Realität auch so, > oder hast du hinten Augen? Nein, aber einen beweglichen Hals. Damit kann man den Kopf drehen, um in die Richtung zu schauen, wo der Ton herkommt.
nochmal:
> https://palette.fm/
Die kostenlose Benutzung ist auf 500*500 Pixel beschränkt, daher konnte
ich nichts mehr hochladen. Aber wenn ich meine alten SW-Aufnahmen (um
1963) passend verkleinere geht es wieder. Ich bin beeindruckt über die
KI, das klappt auch mit ziemlich pixeligen Bildern noch, Gesichter
werden erkannt, die Farben der Bekleidung sind nur geschätzt aber ok.
Hier eine alte Postkarte. Sie ist durch die Verkleinerung ziemlich
pixelig geworden.
Der damals noch vorausschauend hochgesetzte Gully rechts unten ist quasi
vor meiner Haustür, die Straße anstelle des Weges wurde auf das Niveau
des Gullies aufgefüllt. Alle noch sichtbaren Felder sind mittlerweile
bebaut. Damals konnten wir da noch Drachen steigen lassen.
Ich finde, dass das Bild irgendwie eher wie ein Gemälde wirkt als wie ein Foto, kann aber nicht genau sagen, warum.
Ich habe noch auf der Rückseite der Postkarte nachgeschaut, da steht "Verlag Max Hepp", und der findet sich hier: https://ansichtskarten-lexikon.de/verlag-rheinischer-kunst--u-postkarten-verlag-34hepp34-mannheim-1332.html?sort=aklex_a Postkarten von 1908 bis 1953, vor allem vor dem 1.Weltkrieg. Die hier ist nicht aufgeführt. Da wurde vermutlich kräftig retuschiert, die anderen sehen ähnlich künstlich aus. Das Viertel rechts hinten hatten bis vor ein paar Jahren noch echte Gaslaternen. Eine Bürgerinitiative bemühte sich um den Erhalt, aber jetzt mussten sie doch LEDs weichen, wenigstens hat man die farblich angepasst und in die alten Laternen eingebaut, wenn ich recht weiß.
:
Bearbeitet durch User
Rolf M. schrieb: > Ich finde, dass das Bild irgendwie eher wie ein Gemälde wirkt als wie > ein Foto, kann aber nicht genau sagen, warum. s/w Aufnahmen sind häufig nicht einfach Farbaufnahmen nur ohne Farbe. Man verwendete z.B. Gelbfilter um den Himmel dunkler zu machen und Kontrast zwischen Himmel und Wolken zu vergrößern. Bei Portraitaufnahmen nutzte man eine kontrastreiche Beleuchtung, während bei Farbaufnahmen eine gleichmäßige Ausleuchtung besser ist.
Andreas M. schrieb: > ●DesIntegrator ●. schrieb: >> unlogisch ist der Ton von überall her, wenn das Bild nur von vorne kommt > > Das ist aber in der Realität auch so, > oder hast du hinten Augen? Schwachsinn des Jahres. Aber Du hast Glück, das Jahr ist noch jung, da geht noch mehr.
●DesIntegrator ●. schrieb: > Andreas M. schrieb: >> ●DesIntegrator ●. schrieb: >>> unlogisch ist der Ton von überall her, wenn das Bild nur von vorne kommt >> >> Das ist aber in der Realität auch so, >> oder hast du hinten Augen? > > Schwachsinn des Jahres. > Aber Du hast Glück, das Jahr ist noch jung, > da geht noch mehr. Künstliches 3D Hören (auf Kopfhörern) funktioniert z.T. sehr gut. Wird aber in Open World Games wohl eher nicht genutzt - was ich sehr schade finde. Andererseits ärgere ich mich darüber, wenn in Skyrim in der Pampa ein Bär mault, und man keine Ahnung hat, wo das Gemaule herkommt. Gerade in solchen Spielen wird deutlich, wie wichtig das Hören manchmal sein kann. Andererseits: Im Skyrim-Addon Wyrmstooth werden (wenn ich das richtig verstanden habe) KI-genereierte Stimmen eingesetzt. Faszinierend.. https://the-decoder.de/ki-revolution-in-der-videospielindustrie-schon-wieder-skyrim/
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.