Adobe Startet Firefly Video Modell für KI-generierte Inhalte

Adobe hat die Beta-Version seines Firefly Video Modells beim Adobe MAX-Event am 14. Oktober 2024 angekündigt. Dies markiert die Erweiterung der generativen KI-Fähigkeiten von Adobe, die zuvor auf Bilder und Design fokussiert waren.

Das Firefly Video Modell ermöglicht es Nutzern, Videos mit textbasierten Befehlen zu erstellen und dabei Kamerawinkel, Bewegungen und Stile zu steuern. Diese Funktion ermöglicht es Content-Erstellern, Videos aus Beschreibungen zu generieren, ähnlich wie Firefly Bilder erzeugt.

Ein zentrales Merkmal ist Generative Extend, das jetzt in Adobe Premiere Pro verfügbar ist, mit dem Nutzer die Dauer von Videoclips verlängern, Übergänge glätten und Lücken im Filmmaterial füllen können, ohne neu aufnehmen zu müssen.

Laut Adobe wird Firefly mit vollständig lizenzierten Daten trainiert, was sicherstellt, dass die generierten Inhalte von den Erstellern ohne Urheberrechtsbedenken frei genutzt werden können.

Zusammen mit dem Video-Modell stellte Adobe Updates für bestehende Bild-, Vektor- und Design-Modelle im Firefly-Ökosystem vor, darunter eine vierfache Steigerung der Geschwindigkeit zur Bilderzeugung.

Adobe Illustrator wurde ebenfalls mit Funktionen wie Generative Shape Fill und Generative Recolor verbessert, die es Designern ermöglichen, schnell einzigartige Muster zu erstellen und detaillierte Elemente hinzuzufügen.

Interessierte Kreatoren können sich für den begrenzten Beta-Zugang zum Firefly Video Modell anmelden, mit kostenfreier Nutzung während dieser Phase. Adobe wird Preisinformationen bereitstellen, wenn das Tool vollständig verfügbar ist.

Haben Sie einen Fehler oder eine Ungenauigkeit festgestellt?

Wir werden Ihre Kommentare so schnell wie möglich berücksichtigen.