Der virtuelle Adventskalender 2025 war für mich ein kleines Experiment: klassische Erzähltradition und KI-gestützte Bildwelten zusammenzubringen – leise, entschleunigt und bewusst fern von allem Vorweihnachtslärm. Entstanden sind zwei kurze Filme, die unterschiedlicher kaum sein könnten und sich dennoch wunderbar ergänzen. Wer die einzelnen Adventskalender-Tage verpasst hat oder die Geschichten in einem Stück erleben möchte, kann beide Filme hier noch einmal vollständig anschauen.
Der Tannenbaum
Die erste Geschichte basiert auf dem bekannten Märchen von Hans Christian Andersen. Der Tannenbaum erzählt von Sehnsucht, Ungeduld und dem übersehenen Wert des Augenblicks. Für den Adventskalender habe ich die Geschichte visuell interpretiert und mit KI animiert – ruhig, reduziert und mit Fokus auf Atmosphäre statt Effekte. Der Film lädt dazu ein, sich Zeit zu nehmen und der Geschichte einfach zu folgen, so wie man früher am Kamin zugehört hat.
Adventszeit im Mikrofantdorf
Die zweite Geschichte ist eine Eigenkreation: Adventszeit im Mikrofantdorf. Sie führt in eine kleine, leicht schräge Fantasiewelt, in der winzige Elefantenwesen ihren ganz eigenen Advent erleben. Hier durfte die KI spielerischer arbeiten – mit liebevollen Details, sanfter Bewegung und einem Hauch Humor.
Trotz der märchenhaften Leichtigkeit geht es auch hier um Gemeinschaft, Erwartung und die kleinen Rituale, die diese Zeit besonders machen.
Making-Of
Neben den fertigen Filmen war für mich vor allem der Entstehungsprozess spannend. Der virtuelle Adventskalender 2025 war kein „Knopfdruck-Projekt“, sondern ein mehrstufiger Workflow, bei dem klassische kreative Arbeit und KI-Werkzeuge eng ineinandergegriffen haben.
1. Aufteilung der Geschichten
Am Anfang standen die Texte. Der Text von Hans Christian Anders ist frei verfügbar, die Mikrofanten musste ich erst „erfinden“: ChatGPT half mir hier, eine schöne Geschichte zu kreieren und dabei den unverwechselbaren Tonfall eines berühmten Dokumentarfilmers und Regisseurs zu imitieren.
Beide Geschichten wurden zunächst mithilfe von KI (ChatGPT) in 12 inhaltlich und dramaturgisch ungefähr gleich große Abschnitte geteilt – passend zur Idee eines Adventskalenders mit täglichen Episoden. Diese Struktur war entscheidend, damit jede Szene für sich funktioniert und dennoch Teil einer größeren Erzählung bleibt.
2. Bild-Prompts für jeden Tag
Für jeden dieser Abschnitte habe ich anschließend konkrete Bild-Prompts erstellt – also detaillierte Texteingaben, die beschreiben, was die Bild-KI darstellen soll. ChatGPT half dabei, erste Entwürfe für diese Prompts zu formulieren. In der Praxis war jedoch viel Handarbeit nötig:
Stimmung, Bildaufbau, Perspektive, Licht und wiederkehrende visuelle Elemente mussten immer wieder angepasst werden, damit die Geschichte über alle Tage hinweg konsistent bleibt.
3. Bildgenerierung mit Flux
Aus diesen Prompts entstanden dann die eigentlichen Bilder:
- Für Der Tannenbaum kam Flux1.dev zum Einsatz
- Für Adventszeit im Mikrofantdorf Flux2.dev, ein verbesserter Nachfolger mit besserer Detailtreue und stabilerer Bildsprache
4. Animation der Standbilder
Die generierten Bilder waren zunächst statisch. Um daraus Filme zu machen, mussten sie animiert werden. Auch hier habe ich mit Unterstützung von ChatGPT Video-Prompts entwickelt, die beschreiben, wie sich ein Bild bewegen soll: Kamerafahrten, leichte Parallax-Effekte, Umgebungsbewegungen oder dezente Charakteranimationen.
Als KI-Modelle für die Videoerzeugung kamen Longcat Video und Wan 2.2 zum Einsatz. Ziel war nie spektakuläre Action, sondern ruhige, lebendige Szenen, die zur Erzählweise passen.
5. Upscaling auf Full-HD
Ein technisches Limit aktueller KI-Videos ist die Auflösung. Die erzeugten Sequenzen sind vergleichsweise klein und für eine Veröffentlichung in guter Qualität nicht ausreichend. Deshalb wurden alle Clips anschließend mit Topaz Video auf Full-HD hochskaliert. Dabei kam mit Starlight erneut eine KI zum Einsatz, die Details rekonstruiert und Bewegungen sauberer wirken lässt.
6. Die Erzählerstimme – zwei unterschiedliche Ansätze
Ein zentraler Bestandteil beider Filme ist die Erzählerstimme. Sie trägt die Geschichte, gibt Rhythmus vor und entscheidet maßgeblich über die emotionale Wirkung. Entsprechend habe ich für die beiden Filme bewusst unterschiedliche technische Wege gewählt.
Für „Der Tannenbaum“ wurde der Text zunächst mithilfe einer Text-to-Speech-Lösung auf Basis von Google Gemini eingesprochen. Diese KI erzeugt eine sehr saubere, gut verständliche Grundstimme.
Im Anschluss habe ich das Audiomaterial jedoch nicht unverändert übernommen, sondern mit einem eigenen KI-Modell weiterbearbeitet. Ziel war es, Tempo, Klangfarbe und Nuancen so anzupassen, dass die Stimme weniger technisch wirkt und besser zur ruhigen, märchenhaften Atmosphäre der Geschichte passt.
Bei „Adventszeit im Mikrofantdorf“ bin ich einen anderen Weg gegangen. Hier kam die Text-to-Speech-Engine „VibeVoice“ von Microsoft zum Einsatz. Diese Technologie erlaubt es, einen konkreten Sprachsample einer realen Person als Grundlage zu verwenden und direkt auf neue Texte zu übertragen.
Dadurch wirkt die Erzählerstimme persönlicher und unmittelbarer – fast so, als würde jemand die Geschichte direkt vorlesen. Gerade für die verspielte, leicht humorvolle Welt der Mikrofanten war das ein entscheidender Vorteil.
Beide Ansätze zeigen sehr gut, wie flexibel KI inzwischen auch im Audiobereich eingesetzt werden kann. Gleichzeitig gilt auch hier: Die Technik liefert Möglichkeiten – die eigentliche Wirkung entsteht erst durch bewusste Auswahl, Nachbearbeitung und Einbettung in das Gesamtprojekt.
6. Schnitt, Effekte und Musik
Im letzten Schritt wurden alle Sequenzen klassisch weiterverarbeitet:
- Premiere Pro für Schnitt und Zusammenführung der einzelnen Tage
- After Effects für Intros, Übergänge und kleinere visuelle Effekte
- Die Musik wurde vollständig mit Suno AI generiert und gezielt auf Stimmung und Rhythmus der Filme abgestimmt. Für die kompletten Filme (siehe oben) habe ich dann aber doch wieder auf bekannte Musik zurückgegriffen.
Hier schloss sich der Kreis zwischen KI-Unterstützung und traditioneller Postproduktion.
Fazit
Der virtuelle Adventskalender 2025 zeigt sehr deutlich:
KI ersetzt keine kreativen Entscheidungen – sie erweitert sie. Die eigentliche Arbeit liegt im Denken, Auswählen, Verwerfen und Verfeinern. Die KI ist dabei Werkzeug, Ideengeber und manchmal auch Gegenspieler.
Gerade diese Mischung aus Planung, Experiment und klassischem Feinschliff hat das Projekt für mich besonders reizvoll gemacht.
Euer Dirk