Es ist notwendig, die Fähigkeiten der Künstlichen Intelligenz in Frage zu stellen, insbesondere wenn es darum geht, ein Meisterwerk nachzubilden. Die Versuche, „L’Arroseur arrosé“, den allerersten Film der Geschichte, zu reproduzieren, werfen grundlegende Fragen auf. Die Herausforderung geht über die bloße technische Reproduktion hinaus; sie erfordert eine Reflexion über das Wesen des Kinos und der künstlerischen Schöpfung. Technologische Fortschritte, so beeindruckend sie auch sein mögen, scheitern daran, die Quintessenz eines emblematischen Werks zu erfassen. Das Ergebnis dieser Bemühungen vermittelt ein Bild von Inkohärenz und Enttäuschung und verdeutlicht somit die aktuellen Grenzen der KI im filmischen Bereich.
Ein ehrgeiziger Versuch in der Videogenerierung durch Künstliche Intelligenz
Die ultimative Herausforderung wurde gestellt: „L’Arroseur arrosé“, den ersten Spielfilm, nachzubilden. Dieses Meisterwerk, das 1895 von Louis Lumière gedreht wurde, war Ziel einer Reihe von Tests durch Künstliche Intelligenz-Modelle wie Sora von OpenAI, Gen-4 von Runway, Veo-2 von Google und Kling von Kuaishou. Das Ziel bestand darin, zu bestimmen, ob die KI Sequenzen erzeugen könnte, die ebenso flüssig und komisch wie das Original sind.
Aufgliederung der Originalsequenzen
Um das Ziel besser zu erreichen, wurde der Film in vier Hauptsequenzen unterteilt. Jede Szene sollte Schlüsselmomente festhalten: der Gärtner, der seinen Garten gießt, der Junge, der das Austreten des Wassers verhindert, die impulsive Rückkehr des Wassers zum Gärtner und schließlich der Versuch, den Jungen zu fangen. Jedes Segment birgt ein komisches Potenzial, das zentrale Element der ersten filmischen Fiktion.
Erste Versuche mit Sora von OpenAI
Der erste Ansatz stützte sich auf das klassische Text-zu-Video-Modell von Sora. Die Ergebnisse erwiesen sich jedoch als verwirrend. Die Sequenzen schienen völlig aus dem Kontext gerissen zu sein und enttäuschten die ursprünglichen Erwartungen. Auf der Suche nach einer Lösung entschieden sich die Forscher für das Bild-zu-Video mit Sora, indem sie den Modellen statische Bilder zur Verfügung stellten, um eine bessere Kohärenz zu gewährleisten. Leider führte auch diese Methode nicht zu befriedigenden Ergebnissen.
Mit KI unterstützte Farbgebung
Konfrontiert mit unbefriedigenden Ergebnissen griffen die Experimentatoren auf Aufnahmen des Originalfilms zurück. Diese Bilder wurden anschließend mit Gemini Flash 2.0 Exp von Google koloriert, was eine überlegene ästhetische Treue gewährte. Die Kolorierungen erzeugten lebendige Szenen, die an die erinnern, die ein echtes Filmen hätte bieten können.
Erforschung mit Gen-4 von Runway
Die Forscher erneuerten ihre Bemühungen, indem sie das Modell wechselten und sich Gen-4 von Runway zuwandten. Mit den kolorierten Bildern als Ausgangspunkt versuchten sie, Sequenzen zu erzeugen. Trotz eines leicht relevanteren Ergebnisses wurden die Versuche als weit unter den Erwartungen liegend bewertet. Eine zweite Sequenz, zum Beispiel, war so weit entfernt von der erwarteten Vision, dass sie Desillusionierung hervorrief.
Nutzung von Veo-2 von Google DeepMind
Veo-2, das neueste Modell von Google DeepMind, wurde eingeführt, um zu versuchen, die Situation zu verbessern. Dieses Modell ermöglichte treuere Verallgemeinerungen und stellte eine virtuosere räumlich-zeitliche Kohärenz her. Die Sequenzen erweckten den Eindruck von echtem Leben, obwohl die Probleme mit der Kontinuität, insbesondere bei den Gesichtern und Kostümen der Charaktere, weiterhin zu beklagen waren.
Ergebnis und abschließende Bewertung
Die letzte Phase umfasste die Überprüfung der von Gemini erzeugten Bilder mit dem Ziel, diese zu verfeinern. Jede Sequenz wurde dem Modell Kling 2.6 von Kuaishou vorgelegt, in der Hoffnung auf eine Konvergenz zwischen Ästhetik und Respekt gegenüber dem Originalwerk. Die Ergebnisse erwiesen sich als fotorealistischer, waren jedoch hinsichtlich der Erzählung wenig überzeugend. Die Änderungen zwischen den Sequenzen blieben zu stark ausgeprägt und stellten die Kontinuität der Geschichte in Frage.
Trotz vieler Stunden harter Arbeit war das Urteil klar: Filme zu reproduzieren, selbst den allerersten, bleibt eine komplexe Aufgabe für zeitgenössische Künstliche Intelligenzen. Diese Versuche beleuchten die aktuellen Grenzen der Video-KI, während ihr Potenzial zwar groß, aber noch embryonal scheint. Die Forscher, ausgestattet mit Resilienz, setzen jedoch ihre Erkundungen fort, in der Hoffnung, dass die KI neue Höhen erreichen wird.
FAQ zur Nutzung der Künstlichen Intelligenz zur Rekreation des ersten historischen Films
Warum hat die Künstliche Intelligenz nicht erfolgreich „L’Arroseur arrosé“ zufriedenstellend rekreiert?
Die Fortschritte der Künstlichen Intelligenz im Bereich der Videogenerierung befinden sich noch in der experimentellen Phase. Die getesteten Modelle hatten Schwierigkeiten, die narrative und visuelle Kohärenz der Sequenzen zu erfassen, was zu einem Endergebnis führte, das weit von den Erwartungen entfernt war.
Welche Modelle der Künstlichen Intelligenz wurden in diesem Versuch verwendet?
Modelle wie Sora von OpenAI, Gen-4 von Runway, Veo-2 von Google und Kling von Kuaishou wurden getestet, um zu versuchen, das Video zu generieren.
Was waren die Hauptbeschränkungen der verwendeten KI-Modelle?
Die Hauptprobleme umfassten Inkohärenzen in den automatischen Details, wie die Änderung des Aussehens der Charaktere und falsch interpretierte Aktionen, die die Sequenzen schwer nachvollziehbar machten.
Wie haben Sie die Sequenzen für den Versuch zur Videogenerierung vorbereitet?
Die Sequenzen des Originalfilms wurden in vier Hauptteile zerlegt, wobei besonderes Augenmerk auf die Beschreibung jeder Aktion gelegt wurde, um den KI-Modellen klare Referenzpunkte zu geben.
Welche Art von Bildern wurde zum Füttern der KI-Modelle verwendet?
Farbbilder, die von anderen KI-Modellen erstellt wurden, und kolorierte Aufnahmen des Originalfilms wurden als visuelle Basis für jede Sequenz verwendet, um die Kohärenz der Ergebnisse zu verbessern.
Was war der vielversprechendste Ansatz während der Tests?
Die Methode mit Veo-2 erwies sich als die vielversprechendste, da sie relativ kohärente Sequenzen generieren konnte, obwohl die Ergebnisse weit unter den Erwartungen blieben.
Warum wird die Nutzung von KI zur Rekreation dieses Films als „schummeln“ betrachtet?
Es wurden Aufnahmen des Originalfilms und deren Kolorierung verwendet, was als Schummeln angesehen werden könnte, da es sich nicht um eine vollständig originale Kreation basierend auf Künstlicher Intelligenz handelt.
Welche Lehren wurden aus diesem Versuch mit Künstlicher Intelligenz gezogen?
Es wurde festgestellt, dass trotz der erzielten Fortschritte die generative VIDEO-KI noch nicht bereit ist, historische Filme mit der notwendigen Präzision zu reproduzieren, was die Notwendigkeit weiterer Entwicklungen in diesem Bereich unterstreicht.
Ist es möglich, bessere Ergebnisse mit der Weiterentwicklung der VideokI zu erwarten?
Ja, es ist sehr wahrscheinlich, dass Künstliche Intelligenz-Modelle sich weiter verbessern und möglicherweise in Zukunft bessere Fähigkeiten zur Videokreation bieten.





