Mit dem kommenden KI-Modell “Project Starlight” soll es möglich sein, alte Videos zu verbessern, ohne dass man sich mit der Videobearbeitung auskennen muss.
Das Unternehmen Topaz Labs, bekannt für seine leistungsstarke Software zur Foto- und Videobearbeitung wie z.B. Gigapixel AI, hat kürzlich auf den sozialen Kanälen X, Thread und YouTube ein neues KI-Modell angekündigt. Dieses soll die automatische Restaurierung und Verbesserung von altem Filmmaterial ermöglichen.
Beindruckende Beispielvideos
Einige veröffentlichte Beispielvideos demonstrieren recht eindrucksvoll die Leistungsfähigkeit des neuen KI-Modells. Das restaurierte Filmmaterial hat eine deutlich höhere Detailgenauigkeit, während Bildrauschen und Artefakte minimiert wurden. Für diese Verbesserungen sollen keine weitere Benutzereingaben nötig sein. Ihr könnt also ohne Vorkenntnisse in der Videobearbeitung eure alten Filme aufpolieren.
Laut Angaben von Topaz Labs wurde das KI-Modell, genannt Project Starlight, von Grund auf mit einer neuen Modellarchitektur entwickelt. Es verfügt über mehr als 6 Milliarden Parameter und nutzt die neueste NVIDIA-Hardware. Zum Vergleich: Schätzungen nach umfasst GPT-4o von OpenAI in etwa 1,8 Billionen Parameter, während die kleine Version GPT-4o mini etwa 8 Milliarden Parameter umfassen soll. Vereinfacht: Je mehr Parameter ein KI-Modell hat, desto komplexere Muster kann es erlernen.
Topaz Labs setzt auf das Diffusionsmodell
Project Starlight von Topaz Labs setzt hierfür auf das Diffusionsmodell, um altes oder qualitativ minderwertiges Videomaterial automatisch zu verbessern. Diffusionsmodelle arbeiten, indem sie hochauflösende Bilder sukzessive mit Rauschen überlagern, um zu lernen, wie sich die Qualität verschlechtert. Anschließend wenden sie diesen Prozess umgekehrt an: Aus verrauschten Bildern wird rekonstruiert, wie sie ursprünglich ausgesehen haben. Project Starlight setzt dieses Modell gezielt ein, um Bildmaterial automatisch zu entrauschen, zu schärfen, hochzuskalieren und perspektivisch zu korrigieren. Das ist an dieser Stelle allerdings nur kurz und vereinfacht dargestellt. Wenn euch das genauer interessiert, findet ihr auf der folgenden IBM-Website mehr darüber.
Erste “Kritikpunkte” der Community
Bisher gibt es nur marketingübliche Demonstrationsvideos die zeigen, dass Projekt Starlight überwiegend beeindruckende Ergebnisse liefert. Aber wer in den sozialen Medien teilt, muss nicht lang auf seine Kritikern warten. Der Astronauten-Clip scheint ja das Vorzeigevideo zu sein, aber beim restaurierten Boxkampf mit Muhammad Ali gibt es kritische Anmerkungen. Kurz zusammengefasst steht in Kommentaren zum Beispiel: “Da sind einige Bilder verwaschen. Sie sehen mehr aus wie Gemälde und nicht wie scharf definierte Filmszenen.”

Mögliche Preisgestaltung
Laut Topaz Labs sollt ihr Videos mit einer Länge von bis zu 10 Sekunden kostenlos aufpolieren können. Längere Videos von bis zu 5 Minuten könnt ihr dann zwar auch kostenlos restaurieren lassen, aber dann nur mit einer maximalen Auflösung von 1080p. Für noch längere Videos und höhere Auflösungen wird es eine Enterprise-Version geben. Hierbei werdet ihr vermutlich mit Credits bezahlen können.
Derzeit gibt noch keine Informationen darüber, ob Project Starlight lokal ausgeführt werden kann oder ob es in andere Anwendungen von Topaz Labs integriert wird. Wollt ihr einen frühen Zugang zu Project Starlight und es auszuprobieren, könnt ihr die Beiträge von Topaz Labs auf X, Thread oder YouTube kommentieren.
Aktuelle Alternative mit TensorPix
Wer jetzt schon seine alten Videos restaurieren will und nicht auf Project Starlight warten möchte, der kann sich ja mal TensorPix ansehen, welches ebenfalls auf maschinellem Lernen basierende Videoverbesserungslösungen anbietet und bereits aktiv auf dem Markt ist. Tensorpix verspricht ebenfalls eine automatische Restaurierung von altem Filmmaterial, erwähnt in seinen technischen Spezifikationen jedoch nicht den Einsatz von Diffusionsmodellen.
Wie sieht es bei euch aus? Gibt es da altes Filmmaterial, das ihr schon immer mal verbessern wolltet? Oder seht ihr das mit den KI-Modellen und privaten Videos eher kritisch?
Es ist eine hohe Kunst dort wo nichts ist etwas „passendes“ hinzuzufügen. Vorsichtig formuliert für so manche private Videosequenz echt schön wenn das Bild „besser“ wird.
Wo die Grenze zwischen echten und generierten Bildern liegt wüsste man erst wenn im gezeigten Video der neue Prozentanteil von hinzu gefügten „Informationen“ eingeblendet werden könnte.
Wie Kohle verdient werden soll – siehe Ausführungen in der Beschreibung.
Bildmaterial „laufender Bilder“ ist vorhanden und digitalisiert – das muss reichen – wen interessiert es wie Oma/Opa mit 20 aussahen?
Hört sich interessant an und ich denke mit noch besserer KI und sonstigen Techniken wird da bald noch viel mehr gehen.