Adobe hat eine Reihe neuer KI-basierter Funktionen für Kreative vorgestellt. Im Mittelpunkt steht die Technologie “Adobe Firefly”, die die Beta verlässt.
Von der Beta in die kommerziellen Versionen
Firefly soll es laut Pressemitteilung Nutzern ermöglichen, “beeindruckende Inhalte zu erstellen, die für die kommerzielle Nutzung sicher sind”, heißt es in der Pressemitteilung. Die KI-Funktionen sind sowohl in die Creative Cloud für Grafikdesigner als auch in die App Adobe Express für Hobby-Anwender integriert. Die Firefly-Beta ist bereits vor ein paar Monaten gestartet und hat als Konkurrenz zu Midjourney, DALL-E 2 und Stable Diffusion für einiges Aufsehen gesorgt.
Neu ist außerdem das Adobe GenStudio, dass “die Content Supply Chain von Unternehmen künftig mit der Kraft generativer KI” revolutionieren soll und mehrere Funktionen für Inhalteersteller mithilfe von Firefly vereint sowie auf Unternehmensdaten zurückgreifen kann.
Einen leichteren Zugang zu Firefly bekommen Creative-Cloud-Abonnenten über die neue Web-Oberfläche, die unter firefly.adobe.com zur Verfügung steht. Hier erhaltet ihr Zugriff auf die Features Text zu Bild, Generative Füllung, Texteffekte, Generative Neufärbung, Skizze zu Grafik und 3D zu Bild.

Hier der Überblick, welche Programme mehr KI bekommen:
- Photoshop, Express, Illustrator: generative KI mit Firefly
- Premiere Pro, After Effects: KI-gestützte Funktionen
Lightroom bereits voll mit KI
Vielleicht fällt euch dabei auch auf, dass an keiner Stelle Lightroom erwähnt ist. Der beliebte Bildbearbeiter ist zwar bereits mit Funktionen wie der automatischen Objektmaskierung oder den Neural Filters gespickt mit KI, die generativen Möglichkeiten von Firefly gehen aber (offenbar zumindest noch) einen Schritt zu weit.
Falls ihr dann doch Generative Fill ausprobieren wollt, um beispielsweise eine Landschaftsaufnahme um Touristen zu erleichtern, müsst ihr also Photoshop anwerfen. Benjamin hat sich neulich für euch schon ausführlich mit der Software auseinandergesetzt.


Über 2 Milliarden KI-generierte Bilder
Laut Adobe-Manager David Wadhwani wurden während der Testphase bereits über zwei Milliarden Bilder mit Hilfe der Firefly KI generiert. Ziel sei es, “eine neue Ära der KI-gestützten Kreativität für Millionen von Kunden weltweit” einzuläuten, so Wadhwani.
Bei der Entwicklung von Firefly habe man besonderen Wert auf einen verantwortungsvollen Umgang mit KI gelegt, erklärt Adobe. So würden die KI-generierten Inhalte standardmäßig mit sogenannten “Content Credentials” versehen. Diese sollen sicherstellen, dass stets transparent erkennbar ist, wenn KI im Spiel war.
Da hört bei mir der Spass auf, Bilder kreieren die gar nicht so entstanden sind. Ich habe nichts gegen Optimierung, aber das ist – für mich – Müll!
Die Interessen der Fotografen haben bei KI die geringste Bedeutung. Ich habe kürzlich die Pressemitteilung eines Software-Hauses gelesen, das stolz vermeldete, dass es bereits 100.000 Fotos – Bereich Marketing – vermieden hätte. Die Produkte bzw. die Verkaufsverpackungen liegen als 3D-Zeichnung im Computer und der Rest wird gerendert. Jetzt mit KI ginge es erst richtig los. „Kunden brauchen Bilder. Unternehmen müssen Kosten senken.“, so der Pressetext. Weiter im Text. Denn die Vorteile gegenüber der Fotografie sind bahnbrechend: • Keine Fotostudios und kein Fotoshooting • Kein logistischen Aufwand • Keine Retusche für jedes einzelne Bild • Keine lange Planung • Keine hohen Wiederholungskosten Dafür erhalten unsere Kunden neue Möglichkeiten, die vielen zuvor noch nicht bewusst waren: • Alles kann einfach wiederverwendet werden: Szenen, Umgebungen und Produkte • Neue Perspektiven gibt es auf Knopfdruck zum kleinen Preis • Einmal digitalisiert in 3D werden auch AR- und VR- Modelle direkt realisierbar Soweit der Weg, wie er von diesem Softwarehaus gesehen wird. Adobe ist dabei aber derzeit noch ein ganz kleines Licht. Die können noch so gut wie gar nichts. Die KI-Bilder sind auf 1000 × 1000 Pixel begrenzt. Du nimmst ein 100 MP Foto, sendest es an Adobe zum Firefly-Server und zurück kommen die… Weiterlesen »
Sehr interessante Ausführungen!
Finde ich gut, dass man die KI als solche erkennen kann. Das sollte standardmässig eingeführt werden.
Vielen Dank Stefan Komarek
nun müsste der letzte Fotograf (außer Event/Sport/Tiere) kapiert haben das sein Gewerk endgültig gestorben ist. Neu entstehen werden „KI Kreative“ Studios oder Einzelkämpfer.
Weil die dazu nötige Software immer preiswerter und einfacher in ihrer Bedienung wird sind die weiteren Folgen abzusehen. Denke ich an diverse „Avatar“ Videos so sind gewerbliche Werbevideos bald ebenso überflüssig wie die konventionelle digitale Werbefotografie.
Es ist nur eine Frage der Zeit – schätze einmal 2 bis 3 Jahre wird es dauern bis diese Veränderung brutal auf die Gerätehersteller durchschlagen wird.
Der von mir zitierte Presseartikel sieht das nicht so pessimistisch: „Professionelle Fotografen sind durch die technischen Entwicklungen von Kameras, Smartphones und Software immer mehr unter Druck geraten. Nun kommt auch noch die KI. Dabei sind gute Fotografen vor allem: Handwerker, Künstler und Kreative. Genau diese Menschen und Kenntnisse braucht es weiterhin für effiziente und professionelle Produktvisualisierungen. Sie heißen nur anders: 3D-Designer, Konzeptioner, Digital Artist. … Wie gehe ich mit Licht um? Was wirft wie Schatten? Und verändert sich die Oberflächenfarbe eines Produktes, wenn der Boden darunter oder die Wand daneben knallgelb ist? Fotografen sind Meister des Lichts und der Inszenierung. 3D-Designer, Visualisierer und Digital Artists sind nichts anderes als virtuelle Fotografen mit Superpower.“ Die Aufgabe bleibt: dem Kunden das Bild zu liefern, das dieser erwartet. Die Werkzeuge und Methoden ändern sich, haben sich seit Erfindung der Fotografie immer wieder geändert. Avatar wurde mit Videokameras und Schauspielern aufgenommen. Dias Filmmaterial wurde anschließend im Computer bearbeitet. Auch bei den meisten anderen Spielfilmen gibt es ein Post-Processing durch den Computer, oder glaubst du, dass die Action-Szenen moderner Filme wirklich so gedreht wurden wie du sie im Kino siehst? Der Unterschied zwischen Avatar und der Fotografie liegt in der Bewertung. Avatar fanden alle klasse… Weiterlesen »
…mit dem biometrischen Pass-Foto kann man natürlich richtig reich werden :-))
Mir gibt allerdings zu denken, dass es schon Avatare als Nachrichtensprecher:innen gibt…
Dazu finde ich, dass Künstliche Intelligenz (KI) den Arbeitsalltag unheimlich erleichtert! Ich weiß, dass es immer wieder Kritik an Adobe und der Creative Cloud gibt. Aber für das gebotene Preis-Leistungs-Verhältnis (zusätzlich gibt es oft Rabattaktionen), kann man sich über den Umfang wirklich nicht beschweren. Allein die KI-basierte Maskierung ist für mich in meinem beruflichen Alltag ein echter Gamechanger. Wenn Adobe jetzt noch ein vernünftiges Reparaturwerkzeug einführen würde, ähnlich wie bei Photoshop, dann wäre ich rundum zufrieden. Die neuesten Entwicklungen im Bereich der Rauschunterdrückung sind ebenfalls beeindruckend. Ich muss mir nun wirklich keine Gedanken mehr über Bildrauschen in meinen Fotos machen. Daher denke ich, dass man KI nicht immer verteufeln kann, sondern sie in all ihren Möglichkeiten betrachten sollte.
…Pandora hat nicht die Büchse geöffnet, sondern gleich ein Fass aufgemacht.
Hier mal eine sehr informative Sendung von der Ars Electronica in Linz:
https://www.zdf.de/kultur/aspekte/kuenstliche-intelligenz-aspekte-100.html
Stimmt, toll wäre noch, wenn der Müll auch als solcher bezeichnet werden müsste. Also eine Deklarationspflicht sozusagen.
Lightroom ist ja auch für Fotografen, die es drauf haben, die brauchen keine KI.
🙂
Na dann hoffe ich, Du wirfst die automatische Entrauschung nicht an, machst die Bearbeitungsmasken händisch, stitchst keine Panoramen und machst keine HDR oder Bracketing Aufnahmen und auch kein Fokus Stacking…😊
Details verbessern darfst Du auch nicht verwenden, das ist ein KI basiertes Demosaicing Verfahren, ebenso wurden Dunst entfernen und Klarheit Regler verbessert durch KI Training. 😉
Dito die gleichen und ähnlichen Funktionen bei DXO und Konsorten…
Lightroom hat keine KI-Funktionen. Lightroom hat nur HI – Halbintelligenz.
In den letzten Jahren entstanden sehr clevere Automatikprogramme, in Lightroom, in Topaz Lab usw. Die Marketing-Fuzzys haben uns diese Programme als KI verkauft, es ist aber keine. Es sind immer noch fest verdrahte Programme auf deinem Rechner.
Nimm eine LR-Routine und wende sie auf ein Bild an. Du bist nicht zufrieden mit dem Ergebnis – kann ja sein. Du startest die Routine das zweite Mal, immer noch das gleiche Ergebnis. Ein drittes Mal und immer noch das gleiche. Ist das intelligent?
„Dumme Leute machen immer dieselben Fehler, Gescheite machen immer neue.“
Lernfähigkeit ist das Zeichen von Intelligenz. Die Firefly-KI lernt immer weiter dazu. Sie nimmt Feed-Back auf, merkt sich, was ankommt und was nicht, und das verändert ihre Handlungsweise. Firefly schickt dir drei Varianten nach Photoshop zurück, und du entscheidest, welche dir gefällt. Gefällt dir keine, kannst du drei weitere Varianten anfordern. Firefly hat Adobe Stock durchgeforstet. Manche Bilder verkaufen sich gut, andere nicht. Auch daraus kann man lernen.
Die oben von mir genannten Funktionen werden in der Entwicklung der Algorithmen mit selbstlernenden Algorithmen, umgangssprachlich KI, trainiert und dann als „normale Algorithmen in die Software implementiert.
Auch wenn Du das als HI (übrigens kreative Bezeichnung 😉) bezeichnest: Wenn Du diese Funktionen verwendest, arbeitest Du mit Funktionen die mit KI erstellt wuden.
Die Funktionen „Details verbessern“ und „Neuronale Filter“ wiederum werden von Adobe offiziell als KI Funktionen vermarktet. Scheinen also selbstlernende Algorithmen zu sein.
…bleibt noch zu erwähnen, dass Firefly auch Zensur anwendet…
Es ist schon noch ein Unterschied ein existierendes Bild zu optimieren oder ein nicht gemachtes oder anders gemachtes Foto erschaffen zu lassen
Genau joe, du bringst es auf den Punkt.
Da würde ich auch nie das Gegenteil behaupten. Das sehe ich genau gleich.
Trotzdem arbeiten die bekannten Softwarehersteller alle mit KI, aka selbstlernenden Algorithmen. (Wir sind in unserem Alltag mittlerweile umgeben davon.) Auch bei „normalen“ Funktionen. Deshalb ist die Aussage von Rolf faktisch nicht richtig, auch wenn ich verstehe was er sagen wollte und seine Intention auch unterstütze.
Das sind alles normale Entwicklungsarbeiten, die du da bringst. Aber der Trend ist heute ja, dass jede Verbesserung als KI beworben wird, und manche fallen auf den Quatsch auch noch rein.
Nee, Entrauschen gehört zur normalen Entwicklung eines RAW-Bildes, das hat mit KI rein gar nichts zu tun. Auch die anderen Techniken, die du ansprichst, haben mit KI nichts zu tun, das ist simple technische Software-Entwicklung
Rolf, natürlich sind das „normale“ Funktionen und haben grundsätzlich mal nichts mit Personen oder ganzen Himmel oder was auch immer austauschen zu tun. Aber beim Entrauschen dichtet jedes Entrauschprogramm irgendwas dazu bei den Details. Man findet dazu im Netz einige Vergleiche zwischen den Tophersteller, wie da die superkleinen Details von den Programmen leicht anders interpretiert werden. Das passiert sogar schon beim Demosaicing. Und: die Grundfunktionen werden mindestens mit selbstlernenden Algorithmen programmiert. Die Top Vertreter der Branche DXO, Adobe und Topaz schaffen alle mit selbstlernenden Algorithmen während des Betriebs. Selbstlernende Algorithmen oder neurale Netze sind nichts anderes als KI. So funktioniert diese Technik, die von den Marketingleuten als KI bezeichnet wird. Oder wie denkst Du, wie Lightroom z.B. in der Bildverwaltung in deinen Dateien zuverlässig überall den Rolf auf den Bildern findet? Oder die Bildverwaltung auf deinem Handy? Alles selbstlernende Algorithmen, im Marketingsprech KI. Oder wieso denkst du, sind die Panorama oder Fokus Stacking Funktionen heutzutage so verdammt gut? Oder wieso erkennt Lightroom mittlerweile Nebel und Dunst so verdammt gut und wieso ist das entfernen desselben soviel natürlicher und besser geworden, als wenn man einfach den Kontrast hochzieht? Nur weil der Begriff KI eigentlich falsch verwendet wird, heisst das noch lange… Weiterlesen »
Peter, wenn die Techniken selbstlernend sind, ist der Fachbegriff wohl tatsächlich KI. Die Grundlage dafür muss aber zuerst einmal programmiert werden, und da gibt es auch Unterschiede zwischen den verschiedenen Programmen.
Zu deinen Gedanken bei einer Landschaftsaufnahme; klar soll man eine RAW-Aufnahme aufpeppen, die sieht in der Regel ja ziemlich blass aus. Und ganz klar soll man auch die Töne angleichen, und zwar, weil die Kamera nicht wie das menschliche Auge das Bild gleich ausgleicht. Das muss korrigiert werden, solange die Kamera-Software zu dumm dazu ist.
Deine Punkte 1 und 2 kann ich gleich unterschreiben, mache ich auch so. Bei Punkt 3 bin ich raus, kommt nicht in Frage, etwas grösseres wegzuretouchieren oder einzufügen. Was ich für die Website auch schon gemacht habe, dass ich bei einer guten Aufnahme den Punkt einer Fliege entfernt habe. Bei Wettbewerben ist das nicht erlaubt. Himmel austauschen ist für mich sowieso ein No-Go.
So weit sind wir gar nicht auseinander, abgesehen von der Mülltonne. Wenn die KI vernünftig eingesetzt wird, um die Entwicklung eines Fotos zu optimieren, habe ich nichts dagegen. Wenn es aber Richtung Manipulation geht, habe ich absolut kein Verständnis mehr. Ich möchte authentische Fotos machen, keine Fantasiebilder.
Rolf, klar gibt es Unterschiede bei den Programmen. Die Algorithmen für die diversen Funktionen werden ja auch so gut wie möglich geheim gehalten, denn das ist der wertvollste Besitz der Unternehmen. Darum sind diese Programme ja auch nicht Open Source. Der Quellcode ist also nicht einsehbar, sprich kompiliert. Aber die Grundprinzipien sind immer die gleichen. Kochen ja alle Hersteller nur mit Wasser. Und natürlich manche Programme sind eher zum rumspielen für Anfänger und manche sind eher für Experten gemacht, mit mehr Eingreifsmöglichkeiten. Joe arbeitet ja mit Photoshop Elements und ich hatte das auch lange. Da gibt es oben rechts einen Button zum umschalten zwischen Anfänger mit Automatikfunktionen und Expert mit detaillierten Einstellmöglichkeiten. Die Grundlagen der Funktionen sind aber für beide Modi die gleichen. Und zu dem Abfallkübel: es ist nicht so, dass ich die ganze Zeit Sachen aus den Bildern entferne, aber manchmal stört mich halt was. Z.B. Elektrische Leitungen die in der Ecke im Himmel ins Bild reinhängen und es nicht anders möglich war o.ä. Und was den Abfallkübel betrifft: das war letzten Sommer in Marseille. Ich wollte bei schönstem Streiflicht die grosse Kathedrale am Hafen fotografieren mit den schönen Steinplatten und Treppe beim Eingang und suchte mir die… Weiterlesen »
Gut, bei einer Reise an einem Touristen-Hotspot kann man das mit der Mülltonne ja mal machen, aber ansonsten schätze ich dich als seriösen Fotografen ein, der authentische Fotos macht. Sonst würde es ja keinen Sinn machen, auf einem Berg zu übernachten, um den Sternenhimmel zu fotografiern. Könnte ja man auch mit Software einfügen machen, oder?
Hehe, käme mir tatsächlich nicht in den Sinn, da mit 10kg Photomaterial hochzukraxeln und am Schluss zuhause mit einer trümligen Software Sternenhimmel hinzuzaubern.😂