Bildbearbeitung Tests Top

Generatives Füllen: Was bringt Photoshops neues KI-Feature wirklich?

Die Funktion „Generatives Füllen“ erobert aktuell das Netz. Benjamin überlegt, welche neuen Möglichkeiten die Integration von Firefly in Photoshop wirklich bringt.

Zumindest zu Werbezwecken hat sich Adobes Integration seiner Firefly-KI in Photoshop ganz sicher schon gelohnt. Aktuell veröffentlicht so gut wie jeder namhafte YouTuber und jedes renommierte Magazin Artikel zur Funktion „Generatives Füllen“, die wie von Zauberhand Objekte in Bilder rein und auch wieder raus generiert. Auch ich habe mir die benötigte Beta installiert und ausprobiert, wie sich „Generatives Füllen“ im Alltag nutzen lässt.

Wollt Ihr sie lieber schnell selbst ausprobieren? Dann steuert die Adobe-Cloud-App an, falls Ihr das entsprechende Abonnement besitzt. Dort findet Ihr in der App-Übersicht die Kategorie „Beta“ und dort könnt Ihr die neueste Beta-Version von Photoshop herunterladen.

Und falls ihr Photoshop noch nicht besitzt, dann werft mal einen Blick in diesen Artikel von Mark. Dort erklärt er euch, wie sich beim Kauf von Lightroom und Photoshop sowohl als Neukunde als auch als Bestandskunde bares Geld sparen lässt.

Vorwort: Falls Ihr gar nicht wisst, worum es bei „Generatives Füllen“ geht

Mit der Funktion „Generatives Füllen“ verknüpft Adobe die Software Photoshop mit der eigenen Bildgenerierungs-KI „Firefly“. Diese steht zwar schon länger im Netz zur Verfügung, mit einer direkten Software-Integration ist Adobe aber eine wichtige Übertragungsleistung gelungen. Denn hierdurch lassen sich KI-generierte Elemente in bereits aufgenommene oder gerenderte Bilder hineinsetzen. Tatsächlich lag auf dem Beitragsbild dieses Artikels gar kein Huhn auf meinem Sofa. Die Statue, das Dach samt Fenster, der Kaffeebecher sowie Zauberstab und Kamera sind ebenfalls KI-generiert.

Alternativ konnte ich mir auf dem Bild weiter unten mit wenigen Klicks einen schmucken Vollbart stehen lassen. Das Porträt habe ich vor einigen Monaten aufgenommen, ich musste für Photoshop also weder auf die Eigenschaften der Datei noch auf die Komposition achten. Stattdessen zieht man einfach einen groben Rahmen und den Bereich, in dem das neue Element erscheinen soll und tippt den gewünschten Befehl zur KI-Generierung („Prompt“) in eine neue Befehlszeile ein.

Als Informationsgrundlage verwendet Adobe seine eigene Datenbank an Stock-Photos. Veränderte Bilder sind daher gefahrlos auch kommerziell nutzbar. Das ist eine wichtige Voraussetzung für das Vorhaben, Generatives Füllen auch tatsächlich zu einem sinnvollen Werkzeug in der Bildbearbeitung zu machen.

Neben dem Einsetzen neuer Elemente lässt sich Generatives Füllen auch zum intelligenten Entfernen von störenden Bildelementen nutzen. Dazu aber später, erst einmal schauen wir uns das Einsetzen neuer Bildelemente an.

Einsetzen von KI-generierten Elementen

Ein kurzer Hinweis vorab: Das Herumspielen mit „Generatives Füllen“ macht an den ersten Tagen alles andere als produktiv. Denn die Ergebnisse sind teilweise dermaßen interessant, dass ich mich häufiger im Generieren neuer Elemente verloren habe. Das liegt zum Teil daran, dass die Ergebnisse unterhaltsam und kurios waren. Andererseits sehen eingesetzte Elemente verblüffend echt aus.

Denn Photoshop liefert der Firefly-KI Informationen aus den bearbeiteten Bildern, wodurch der Lichteinfall oder auch Schatten in vielen Fällen realistisch aussehen. Auch dann, wenn man wie oben einen Affen auf einem Fahrrad generiert. Umliegende Objekte werden, falls nötig, leicht abgewandelt, um Übergänge weicher zu machen oder einen Kontext zur Umgebung herzustellen. Denn auch das erste Auto auf der linken Seite habe ich künstlich eingesetzt.

Meiner Meinung nach liegt hier die eigentliche Innovation von Generatives Füllen – denn was Photoshop aktuell noch in Eure Bilder einsetzt, sieht oft deutlich unrealistischer aus als KI-generierte Bilder von Konkurrenten wie Stable Diffusion oder Midjourney. Dabei ist es nur eine Frage der Zeit, wann Photoshop aufholt – eine Anwendbarkeit zu schaffen, ist bei KI-Generatoren schon eine deutlich größere Herausforderung. Und das muss die Konkurrenz trotz besserer Ergebnisse erst einmal schaffen.

Zumal Photoshop generierte Bildelemente immer als neue Masken einfügt. Dadurch hat man die Möglichkeit, mit wenigen Klicks Übergänge zu verfeinern oder die Belichtung zu verändern. Im Bild mit den KI-generierten Schafen habe ich beispielsweise noch einmal die Belichtung korrigiert und die Maske so verkleinert, dass Photoshop die Details im Horizont nicht „KI-verhunzt“. Das geht alles dermaßen gewohnt von der Hand, dass man mit ein wenig Photoshop-Erfahrung gar nicht wirklich drüber nachdenkt.

Das Einsetzen KI-generierter Elemente ist aber aktuell eher beeindruckend als nützlich. Denn die Ergebnisse sehen beim genauen Hinsehen noch zu künstlich aus als dass sie digitales Compositing ersetzen würden. Hier wünsche ich mir zukünftig die Möglichkeit, die Künstliche Intelligenz mit Informationen aus eigenen Bildern anzureichern. Sprich, dass ich mich selbst aus Bildern von meiner Festplatte über Generatives Füllen in meine Fotos einsetzen kann. Da Stable Diffusion sowas bereits beherrscht, ist aber auch das nur eine Frage der Zeit.

Erweitern und Herausrechnen von Elementen

Aktuell sehe ich den Vorteil von „Generatives Füllen“ in der Bildbearbeitung daher noch woanders. Denn das Tool ist eine kleine Revolution, wenn es darum geht, störende Elemente aus Bildern herauszurechnen oder Fotos über den Bildrand heraus zu erweitern. Das kann Photoshop zwar schon länger mit ein paar einfachen Klicks, die Ergebnisse überzeugen dabei aber weniger. Zwar bot Photoshop bislang schon eine gute Grundlage, um händisch nachzubessern, Generatives Füllen setzt hier aber wirklich neue Maßstäbe.

Denn dadurch, dass Photoshop beim Füllen nicht mehr allein auf Informationen innerhalb des vorhandenen Bildes zurückgreift, sind die ausgefüllten Bereiche deutlich realistischer und vor allem weniger repetitiv. Im Beispiel mit Blick auf den Berliner Fernsehturm sieht man das am Bildrand sehr gut: Das inhaltliche Füllen (rechts), das nur auf lokalen Bildinformationen basiert, setzt beim Füllen immer den gleichen Bildbereich ein. Das Generative Füllen (links) hingegen berechnet die fehlenden Bildbereiche abwechslungsreicher, was oftmals deutlich realistischer sein dürfte. Das Werkzeug ist dabei sogar leistungsstark genug, um ein Bild im Porträtformat in ein 16:9-Format umzuwandeln:

Links seht Ihr das vorherige Bild und Photoshop hatte tatsächlich nur dieses Foto als Informationsgrundlage zur Verfügung. Auch Geodaten zeichnet die Sony Alpha 7 II nicht auf, die ich zur Aufnahme verwendet habe. Das rechte Bild habe ich mit vier Anwendungen von „Generatives Füllen“ erzeugt – einmal wurde das Bild in 16:9 umgewandelt, dann habe ich noch dreimal ausbessern müssen.

Zu guter Letzt könnt Ihr störende Bildelemente auch sehr zuverlässig aus Fotos herausrechnen, wenn Ihr die Befehlszeile für das Generative Füllen leer lasst. In meinem Beispiel wollte ich auf die Schnelle die großen Stromkabel entfernen, jeweils habe ich dabei die Kabel grob mit dem Polygon-Lasso umrandet. Das Ergebnis ist sehr gut, selbst die Blätter der Bäume werden realistisch nachgebildet. Nur bei den kleinen Kabeln vor dem Haus und den Bäumen müsste ich nochmal nachbessern.

Beeindruckend ist zudem, dass schon die Beta-Version mit sehr großen Bildern umgehen kann. Mein Panorama aus Amalfi etwas weiter unten ist etwa 70 Megapixel groß und das Werkzeug schafft es in derselben Zeit, Elemente ohne Qualitätsverlust zu füllen. Hier hätte ich im Vorfeld erwartet, dass die Photoshop-Beta ruckelt oder abstürzt oder das Generative Füllen länger dauert. In der Praxis war das einzige Problem jedoch, dass die Festplatte meines Notebooks zu voll war, dass Photoshop die großen temporären Dateien zwischenspeichern konnte.

Fazit

Meiner Meinung nach ist es durchaus berechtigt, dass aktuell jeder über die neuen KI-Funktionen in Photoshop berichtet. Aber weniger aus den Gründen, die dabei meist im Fokus stehen. Ja, es ist spaßig und flashig, neue Elemente wie von Zauberhand in bestehende Bilder einzufügen. Und irgendwann werden die erstellten Elemente auch eine Qualität erreichen, dass wir sie kaum von realen Motiven unterscheiden können – das sehen wir bereits am leistungsstärkeren Midjourney und Beispielen wie dem Papst im teuren Styler-Outfit.

Deutlich interessanter finde ich Adobes KI-Integration allerdings, da sie bestehende Funktionen in Photoshop noch leistungsstärker macht. Bilder binnen Sekunden aus dem Hochformat ins Querformat zu bringen oder störende Elemente ohne langes Stempeln herauszurechnen, macht das Bildbearbeitungsprogramm zu einem noch besseren Werkzeug.

Gleichzeitig achtet Adobe bei seiner Integration darauf, dass die Bilder uns lizenztechnisch keine Schwierigkeiten bereiten. Ich bin daher wirklich gespannt, welche kreativen Einsatzmöglichkeiten Adobe für seine Firefly-KI in Zukunft noch hat. Was meint Ihr? Wird der aktuelle KI-Trend vorübergehen oder ist das die neue Innovation, auf die wir lange gewartet haben?

PS: Eine Sache habe ich von Anfang an verschwiegen! Schaut noch einmal auf mein Bart-Bild – hier habe ich ganz klammheimlich auch mein schwarzes T-Shirt durch einen Anzug ersetzt. Habt Ihr’s gemerkt? Schreibt’s mir in die Kommentare!

guest
71 Kommentare
älteste
neueste
Feedback
Zeige alle Kommentare

Photografix Newsletter

In unserem kuratierten Newsletter informieren wir dich 1-2 Mal pro Woche über die aktuellsten News und Gerüchte aus der Welt der Fotografie.

Wir senden keinen Spam und teilen niemals deine E-Mail-Adresse.
Erfahre mehr in unserer Datenschutzerklärung.