Wer seine Fotos in der Vergangenheit bei EyeEm verbreiten wollte und sie nicht für KI-Training bereitstellen möchte, muss jetzt handeln.
Nicht die ersten Probleme bei EyeEm
Die Berliner Foto-Plattform EyeEm steht derzeit in der Kritik, da das Unternehmen offenbar plant, hochgeladene Bilder seiner Nutzer für das Training von KI zu verwenden. Wie aus den AGB hervorgeht, müssen Nutzer, die damit nicht einverstanden sind, ihre Fotos schnellstmöglich von der Plattform löschen.
Durch das Hochladen von Inhalten in die EyeEm-Community räumst Du uns in Bezug auf Deine Inhalte das nicht-ausschließliche, weltweite, übertragbare und unterlizenzierbare Recht ein, diese Inhalte zu vervielfältigen, zu verbreiten, öffentlich wiederzugeben, umzuwandeln, zu bearbeiten, davon abgeleitete Werke zu erstellen, öffentlich zugänglich zu machen und/oder zu bewerben.
Dies beinhaltet insbesondere das unterlizenzierbare und übertragbare Recht, Deine Inhalte für das Training, die Entwicklung und Verbesserung von Software, Algorithmen und Machine Learning Modellen zu nutzen. Falls Du damit nicht einverstanden bist, solltest Du Deine Inhalte nicht in die EyeEm Community hochladen.
EyeEm, das 2011 gegründet wurde und sich als eine Art europäisches Instagram positioniert hat, fungiert nicht nur als soziales Netzwerk für Fotografen, sondern auch als Datenbank für mehr als 30 Millionen Stock-Fotos. Viele professionelle Fotografen nutzen die Plattform, um ihre Bilder zu lizenzieren und zu verkaufen.
Letztes Jahr rutschte EyeEm in die Insolvenz und zahlte die Fotografen monatelang nicht aus, fand jedoch bald darauf einen neuen Besitzer. Dass dieser Potenzial in Sachen KI sieht, wurde schon bei der Übernahme klar, daher kommt der Schritt nicht ganz überraschend.
Bilder für KI-Training freigeben – oder kein Verkauf möglich
Laut den AGB stimmen Nutzer mit dem Hochladen ihrer Fotos automatisch zu, dass diese für das Training von KI-Systemen verwendet werden können. Ein nachträgliches Opt-Out oder ein Widerruf dieser Zustimmung ist nicht vorgesehen. Die einzige Möglichkeit, die Verwendung der eigenen Bilder für KI-Zwecke zu verhindern, besteht darin, diese vollständig von der Plattform zu entfernen.
Problematisch ist dabei außerdem, dass selbst das Löschen der Fotos nicht immer sofort wirksam wird. Wurden die Bilder bereits im hauseigenen EyeEm-Magazin vorgestellt oder in den Social-Media-Kanälen des Unternehmens genutzt, kann es bis zu 180 Tage dauern, bis sie vollständig entfernt werden.
Für professionelle Stock-Fotografen, die ihre Bilder über EyeEm verkaufen wollen, stellt dies ein besonderes Problem dar. Wenn sie nicht möchten, dass ihre Fotos für das KI-Training verwendet werden, müssen sie auch den Verkauf der Lizenzen unterbinden, was ihre Einnahmequelle beeinträchtigen kann.
Das Thema Trainingsmaterial für KI-Bildgeneratoren wird auch gut zwei Jahre nach Veröffentlichung von Midjourney, DALL-E 2 und Stable Diffusion heiß diskutiert. Noch immer stehen die Betreiber dieser Technologien in der Kritik, Bilder zusammengesammelt und fürs Training verwendet zu haben, ohne die eigentlichen Urheber zu fragen.
Anders sieht es bei Modellen wie dem von Adobe aus, das größtenteils auf lizenzierte Bilder aus seiner Stock-Datenbank zurückgreift. Hier haben Fotografen aber meines Wissens nach die Wahl, ob sie ihre Bilder fürs Training zur Verfügung stellen wollen oder nicht, und bekommen nicht wie bei EyeEm die Pistole auf die Brust gesetzt. Ich glaube nicht, dass EyeEm noch eine sonderlich rosige Zukunft bevorsteht.
via: Heise