| |

Foto bearbeiten mit KI

Ich nutze seit Jahren die Produkte von Adobe für die Entwicklung/Bearbeitung meiner Bilder. Lightroom zur Raw-Entwicklung und Photoshop wenn es darum geht Fehler zu verbessern, z.B. störende Elemente zu entfernen oder ähnliches. Ich nutze auch DXO Produkte um das Rauschen der Bilder zu verbessern oder für Farbanpassungen.

Bevor jemand schreit, es gibt sicher 100 Wege und andere Tools, das zu tun, was ich hier beschreibe, aber das ist halt mein Weg, der sich aber sicher in den nächsten Monaten verändern wird. Und ein total verhautes Bild, werde ich auch mit KI-Tools nicht retten können.

Ich bin in den letzten Tagen meine Kuba-Fotos (um sie u.a. auch auf der Homepage zu präsentieren – coming soon) durchgegangen und habe radikal 60% der Fotos gelöscht, die uninteressant oder total verhaut waren. Die restlichen 40% sind auch nicht alles Meisterwerke, aber zumindest aus meiner persönlichen Sicht wert aufbewahrt zu werden. Ich habe damals schon gerne fotografiert, aber mich zu sehr auf die Kamera verlassen (grüner Modus) bzw. zu wenig auf die Komposition geachtet. Dadurch habe ich immer wieder zu wenig Raum für die Nachbearbeitung gelassen oder Dinge abgeschnitten.

Das Foto von der Tanzshow in Varadero, gefällt mir eigentlich sehr gut. Würde aber heutiger Sicht die Kamera anders einstellen, rauf mit der ISO und runter mit der Blende. Was mich wirklich stört ist das links und unten abgeschnitten ist (vermeidbar) und die Personen im Hintergrund (eher nicht vermeidbar).

Hier das Vorher/Nacher Foto:

Erster Schritt im LR das Bild vorbereiten und mit Topaz Denoise AI das Rauschen entfernen. Denoise funktioniert aus meiner Sicht bei alten RAWs und JPGs besser, als die eingebauten Funktionen von LR oder DXO RAW.

Zweiter Schritt in Photoshop öffnen und als erstes den Hintergrund links und unten erweitern, da das generative Erweitern bei großen Auswahlen, nicht richtig gut funktioniert, verwende ich die Gratis-Funktion des PixImperfect-Composing Tools. Mit diesen Tool kann man den Hintergrund automatisch in definierten (250, 500, 1000) Schritten erweitern.

Dritter Schritt die störenden Element entfernen, die Dame und den Herrn im Hintergrund – bzw. das Plastiksackerl. Manchmal muss man die KI-Schritte auch wiederholen, da manche Vorschläge echt ziemlich schräg aussehen. Man kann versuchen ohne Prompt die generative Füllung zu starten, aber ich habe die Erfahrung gemacht das ‚entfernen‘ in solchen Fällen bessere Ergebnisse liefert.

Den vierten Schritt mache ich wieder in Lightroom, es gibt seit neuesten die Objektivunschärfe. Die Funktion ist noch in der Beta, aber liefert schon recht gute Resultate. Da mir der Hintergrund noch immer zu unruhig ist, verwende ich dieses Feature. Einfach die Checkbox anwenden aktivieren, warten (dauert etwas) und gegeben falls das Ergebnis verbessern und adaptieren.

Fazit:
Lohnt sich der Aufwand -> jein. Natürlich wäre es wünschenswert, gleich korrekte Fotos zu schießen, aber das nehme ich mir sowieso für die Zukunft vor und die Fotos wegschmeißen ist auch keine Alternative. Aufwand ist es auf jeden Fall und auch das Ergebnis ist nicht perfekt (siehe Füße des Tänzers und Fliesen), aber als verbesserte Urlaubserinnerung – bin ich echt zufrieden.

Szenario 2:

Man ist in einer Stadt unterwegs und schafft es nicht, das Objekt seiner Wahl ohne störende Elemente zu fotografieren. Einerseits laufen immer wieder Menschen ins Bild, anderseits reicht dein Weitwinkel und/oder der Platz nicht aus die Szene ordendlich zu fotografieren, auch Autos oder andere Elemente stehen im Weg.
4 Möglichkeiten:
– Warten bis es ruhiger ist, vor allem im Urlaub nicht immer möglich.
– Eine Langzeitbelichtung mit Graufilter (ein paar Minuten) – ist halt auch nicht immer möglich an einer Strasse
– Mehrere Aufnahmen innerhalb mehrerer Minuten und in Photoshop zusammenrechnen lassen. Auch nicht immer möglich und benötigt wie Punkt 2 ein Stativ.
– Mit der KI störende Elemente entfernen – zeitaufwendig in der Nachbearbeitung

Im ersten Schritt die Farben angepassr mit einen Preset in Photoshop und die fallenden Linien korregiert, dadurch wurde natürlich auch der Bildausschnitt verändert.
Danach habe ich nacheinander das Moped, die drei Damen und das Schild vor dem Museum und das Auto rechts entfernt. Das hat super funktioniert, manchesmal muss man die Variation, welche die KI vorschlägt neu erstellen und/oder anpassen, aber im großen und ganzen funktioniert das recht rasch. Bild 2 ist schon recht ordentlich und reicht mir als verbessertes Urlaubsbild.
Aber natürlich muss ich auch versuchen, neue Elemente dem Bild hinzuzufügen, wie gut funktioniert das?
Als erstes muss ein roter Teppich her. Das funktioniert so lala, in zwei Versuchen mit insgesamt 6 Varianten bekomme ich zumindest einen schwarzen Teppich (den ich dann rot einfärbe), aber schaut zumdest toll auf den Stufen aus.
Das Graffiti ist schnell erstellt und schaut mit der Anpassung der Deckkraft auch ganz gut aus, allerdings den Text bekommt die KI nicht hin (‚Fidel for ever‘), auch nicht nach 5 Versuchen mit je 3 Varianten. Aber das habe ich gelesen, funktioniert zumindest bei Bing Image Creator meistens besser.
Der Geier links auf der Mauer, funktioniert relativ problemlos – einfach Stelle markieren und ‚Geier‘ als Prompt und generieren lassen.
Das Ufo ist eine Notlösung, nachdem sowohl ‚Luftschiff‘, ‚Zepellin‘ und ‚Ballon‘ keine vernünftige Variationen bringen.
Spielerei und benötige ich meistens nicht, aber spannend wie sich diese Features entwickeln werden.

PS: wer hat bemerkt das der linke Poller eckig ist? Ich erst beim Schreiben des Blogs.

PiXimperfect Compositing
Topazlabs (Noise Reduction)
DxO PureRAW 3 für RAWs
Adobe Creative Cloud (PS & LR)

Video zu den KI Funktionen von LR

Disclaimer
Dieser Blog ist meine persönliche Meinung und in keiner Form eine Werbung für genannte oder verlinkte Produkte.

Ähnliche Beiträge

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert