Mit dem Aufkommen von OpenAI's ChatGPT hat sich ein revolutionäres Zeitalter in der Videoproduktion und speziell in der Erstellung von Erklärfilmen eröffnet. In den letzten Monaten haben wir uns tief in die Welt der KI-Tools vertieft, wobei wir sowohl herausragende Favoriten als auch weniger effektive Lösungen identifiziert haben.
In diesemBlogbeitrag möchten wir die ausgewählten KI-Tools entlang unseres etabliertenWorkflows vorstellen:
- Concept
Unsere Konzeptionsphase startet bereits im Vorfeld des ersten Meetings. Dank der Unterstützung von ChatGPT können wir das Thema, den Markt und die Zielgruppe effizient analysieren und strukturieren. Während ChatGPT wertvolle Zusammenfassungen liefert, stoßen wir in der kreativen Phase der Story-, Struktur- und Dramaturgieentwicklung an seine Grenzen. Hier ist die menschliche Intuition und Interpretation noch unerlässlich.
- Design
Parallel zur Konzeption gestaltet sich die Stilentwicklung. KI-Tools wie Canva unterstützen uns bei der Erstellung von Moodboards, während andere fortschrittliche Tools wie Adobe Firefly, Midjourney, Stable Diffusion, Dall-e3, Runway und Playground AI spezifische Techniken wie Comic- oder 3D-Designs ermöglichen. Diese Tools erweitern unseren kreativen Horizont und bereichern den Gestaltungsprozess mit inspirierenden Ergebnissen.
- Assets
Im Kontext der Asset-Erstellung haben sich Storyboards als unschätzbares Werkzeug erwiesen. Obwohl KI-Tools wie Boords in bestimmten Phasen nützlich sein können, stoßen wir bei der umfassenden Asset-Erstellung auf Herausforderungen.
Die aktuell verfügbaren KI-Tools bauen oft auf bestehenden Bildern auf, was die Integration von internem und externem Feedback ermöglicht. Jedoch resultieren diese Ansätze häufig in fehlerhaften Ergebnissen und erfordern einen erheblichen Zeitaufwand, der den professionellen Standards nicht immer gerecht wird.
- Animation
Die größten Erwartungen haben wir in der Animation, aber auch die meiste Skepsis. Adobe hält hier recht viele Funktionen bereit für Premiere, um Schnitt, Transkription oder Graphic Essentials zeitsparend und einfach umzusetzen.
In After Effects beschränkt es sich zur Zeit noch auf wenige Features, wie verbessertes Rotoscoping.
Im Social Media Bereich hat man eine sehr gute Alternative mit CapCut, weil es Schnitt, KI Features und Vorlagen maßgeschneidert für Tiktok und Insta Reels bereithält. Bestimmte Effekte, wie Motobrush machen aus Bildern Animation und funktionieren in Runways Gen-2 schon sehr gut, um Elemente, wie Haare oder Feuer bewegen zu lassen.
Mit Pika kommt ein starkes Tool in der Text-to-Video Sektion auf und hat mit seinem Ankündigungsvideo Lust auf mehr gemacht. In der praktischen Umsetzung konnten wir allerdings noch keinen wirklichen Nutzen daraus ziehen oder gar einsetzen. Eine KI Engine sieht schon sehr interessant vor Release aus: Animate Anyone. Hier können Posen direkt auf gezeichnete oder modellierte Charaktere gesetzt werden aus einem aufgenommenen Video. Wir sind gespannt!
- Sound
Im Sound und Speech Bereich hat sich wirklich wahnsinnig viel getan und hier sind auch einige Tools in unseren Alltag geflossen: Mit Elevenlabs haben wir unsere Layouts und Animatics auf ein neues Level gehoben, weil wir hier jeden Text in jeder Sprache umwandeln können und unsere Animatics legen können. Da wir so Tempo und Zäsuren optimal beeinflussen können, lassen sich die Längen 100% für die spätere professionelle Sprachaufnahme festlegen. Denn eine echte Stimme mit den Nuancen kann es noch nicht ersetzen. In Adobe Premiere lässt sich mit dem Remix Tool und dem Dialog Tool das Lied ohne hörbare Schnitte auf die gewünschte Länge bringen und automatisch Song/Stimme ausleveln.
Fazit:
Die Rolle von KI-Tools in der Videoproduktion ist zweifellos revolutionär. Während sie in bestimmten Phasen des Workflows effizient eingesetzt werden können, bleibt die menschliche Kreativität und Interpretation unersetzlich. Es bleibt spannend zubeobachten, wie sich die Landschaft der KI-Tools weiterentwickelt und wie sie die Zukunft der Animationserstellung prägen werden.