In der neusten Photoshop-Version treffen optimierte Werkzeuge zur Detailbearbeitung auf eine deutlich ausgebauten KI-Unterbau. Wer bereit ist, mehr Credits zu investieren, kann auf externe Modelle setzen und so noch gezielter generative Inhalte erstellen.
Adobe hat Photoshop auf Version 27.3 aktualisiert und führt damit mehrere Neuerungen ein, die den nicht-destruktiven Workflow verbessern. Im Mittelpunkt stehen zwei neue Einstellungsebenen für Klarheit und Dunstentfernung sowie für Körnung. Beide ermöglichen es euch, Bilder anzupassen, ohne die Originaldaten zu verändern.
Die Klarheits-Funktion verstärkt den Mittenkontrast und reduziert Dunst, was besonders bei Landschaftsaufnahmen oder Bildern mit diesiger Atmosphäre nützlich ist. Die Körnungs-Ebene bietet Regler für Menge, Größe und Rauheit, sodass ihr filmähnliche Texturen gezielt steuern könnt.

Bei den generativen Funktionen erweitert Adobe die Möglichkeiten deutlich. Für Generatives Füllen und Generatives Erweitern könnt ihr nun auch in der Nicht-Beta-Version der Software zwischen verschiedenen Modellen wählen. Neben Adobes eigenen Firefly-Varianten stehen erstmals auch externe Modelle zur Verfügung, darunter FLUX.2 pro, FLUX.1 Kontext (die kommen vom deutschen Start-up Black Forest Labs), Googles Gemini 2.5 (Nano Banana) und Gemini 3 (Nano Banana Pro).
Diese Flexibilität hat allerdings ihren Preis. Während Firefly-Modelle nur einen Credit pro Generierung verbrauchen, kosten die externen Modelle deutlich mehr und verlangen zwischen 10 und 40 Credits pro Bild. Besonders Nano Banana Pro liegt mit 40 Credits am oberen Ende und sind damit 40-mal teurer als Adobes eigene Lösung. Zugegebenermaßen ist Nano Banana Pro aber das in meinen Augen “beste” Bildmodell in dem Sinne, dass es Prompts am präzisesten umsetzt.
Ebenfalls überarbeitet wurde das Entfernen-Werkzeug, das unerwünschte Objekte nun konsistenter beseitigen soll. Die neue Referenzbild-Funktion erlaubt es zudem, generierte Inhalte an einem Beispielbild auszurichten, etwa um Objekte stilistisch anzupassen oder Hintergründe einheitlich zu ersetzen.
Auf der hauseigenen MAX 2025 zeigte Adobe, wohin die Reise geht: Lightroom automatisiert mit Assistierter Bildauswahl und neuen Organisationshilfen viele Routinen, während Photoshop mit zusätzlichen KI‑Modellen, Sprachbefehlen und Harmonisieren seine Generativfunktionen ausbaut.


Das entwickelt sich für mich in die falsche Richtung. Warum?
Wieder einmal wird mit „Vorteilen“ geworben die eine Optimierung der Arbeitsabläufe versprechen. Bisher hat das immer den Verlust von Arbeitsplätzen bedeutet was an und für sich schlimm genug ist!
Ein anderes genau so wichtiges Thema: „Die Echtheit der bildlichen Darstellung!“ Komplett KI erzeugte Bilder/Videos verpflichtend zu kennzeichnen wäre in Ordnung. Wo ist die Grenze Inhaltlich veränderte Bilddateien mit einzubeziehen?
Photoshop 27.3 bedeutet ein weiteres neues Hintertürchen für in jedem Belang „optimierter“ Bilder/Videos. Das Adobe mit den Credits mehr Einnahmen generieren möchte ist OK wenn sich genügend Kunden finden. Jeder muss selbst wissen was ihm gut tut!
Grundsätzlich zu Adobe Photoshop: bislang gibt es noch keine Alternative, die auch nur ansatzweise an die Leistungsfähigkeit anknüpfen kann. Aber auch bei Adobe hört sich die KI-Unterstützung gut an, kann jedoch in der realen Welt nicht richtig liefern. Zeitgeist eben. Und ich persönlich kann dieses KI-Geschwafel schon länger nicht mehr ertragen…:-))
Je nachdem wieviel man vom kompletten Featureumfang nutzt mehr oder weniger.
Ich denke das mindestens 70% der Fotografen immer die gleichen 10% nutzen.
Und zum Thema “KI-Geschwafel”, solange sich “Fotografen”, Prompter hinter Ihren KI-Bildern verstecken sollten wir auch weiter darüber sprechen.
Ich empfehle das neue Affinity 3. Mindestens genauso gut wie Photoshop. Sieht fast genauso aus, fühlt sich fast genauso an und ist Photoshop, InDesign und Illustrator in einem. UND IST UMSONST! Die Zeit für Adobe läuft ab. Traurig aber wahr.
Im Prinzip stimme ich Dir zu. Affinity Photo hat in vielen Punkten dicht zu Photoshop aufgeschlossen, erreicht jedoch in einigen Bereichen Photoshop eben nicht.
Mir fällt da ganz spontan die Verwendung von ICC Profilen ein, wo Affinity Photo nicht mithalten kann. Mein Fotolabor rät sogar davon ab, Farbprofile in Affinity Photo zu verwenden, da eine Farbgenauigkeit nur für Photoshop garantiert wird.
Und Photoshop ist auch in der Erkennung von Bereichsauswahl mittels Auswahlpinsel, bzw. Schaltfläche noch geringfügig besser.
Das ist aber Jammern auf hohem Niveau. Für die Profile nutze ich ein altes Photoshop CS2, welches kostenlos ist.
Und wie im Artikel schon beschrieben, KI arbeitet auch nicht immer fehlerfrei.
Eine so hoch komplexe Software zu schreiben, wie sie in Programmen wie Photoshop zur Verfügung steht kostet einen erheblichen Aufwand an Personal und Sachkosten.
Daher kann ich es grundsätzlich verstehen, wenn der Hersteller eine adäquate Bezahlung benötigt.
Meine Frage – wenn Affinity umsonst zur Verfügung gestellt wird, wie ist denn das Geschäftsmodell dahinter?
… und gleich die Antwort zur richtigen Einordnung.
https://de.wikipedia.org/wiki/Affinity
Zunächst einmal ist Affinity Photo 3.0 in der Grundversion kostenlos. Das Freemium-Modell wird so lange funktionieren, wie sich ausreichend zahlende Kunden für die Pro-Versionen finden. Im Grunde baut die Version 3.0 auf der Vorgängerversion Affinity Photo 2 auf, es entstehen also keine weiteren Kosten, außer daß vielleicht neue Kameras und Objektive eingepflegt werden müssen. Wie lange das dann kostenlos bleiben wird weiß ich nicht.
Wer auf KI in Affinity Photo nicht verzichten kann, der muß auf die Pro-Version umsteigen, und da wird es richtig teuer. Warten wir es doch erst einmal ab, was Canvas aus Affinity Photo Freemium macht. Derweil bleibe ich persönlich bei Affinity Photo 2.