Adobe Premiere bekommt generative KI

Hast du schon von den neuesten Entwicklungen bei Adobe gehört? Diese Woche haben sie einen aufregenden Einblick in die nahe Zukunft der Videobearbeitung gegeben. Denn mit verschiedenen generative KI-Funktionen in Adobe Premiere Pro werden nicht nur die Arbeitsabläufe vereinfacht, es eröffnen sich dadurch neue kreative Möglichkeiten. Aber um was geht es dabei genau? Und wann soll das Ganze kommen? Wir haben uns das einmal angesehen.

Generative KI für professionelle Bearbeitung

Adobe hat eine Vorschau auf einige der neuen Features gegeben, die in diesem Jahr in Premiere Pro eingeführt werden sollen. Ja, du hast richtig gelesen. Noch in diesem Jahr. Dazu gehören generative KI-Tools, die es den Benutzern ermöglichen, ihre Videobearbeitung zu optimieren. Von Objektverfolgung und -ersetzung bis hin zur Erweiterung von Clips bieten diese Tools eine Vielzahl von Möglichkeiten, um das Beste aus deinen Videos herauszuholen. Sie werden von einem neuen Videomodell unterstützt, das zur Firefly-Familie gehört und eine breite Palette von Effekten für Bilder, Vektoren, Designs und Texte bietet.

Was ist Adobe Firefly?

Adobe Firefly ist ein generatives KI-Modell von Adobe, das bereits seit einiger Zeit in der Creative Cloud verfügbar ist. Damit lassen sich aber nicht nur lustige Bilder von zwei Meerschweinchen am Strand generieren, es wird auch als Erweiterung in Adobe Photoshop genutzt.

Zwei Meerschweinchen am Strand erstellt mit der generativen KI Adobe Firefly
Zwei Meerschweinchen am Strand mit Sonnenbrille (generiert mit Adobe Firefly)

Firefly wird mit Bildern aus Creative Commons, Wikimedia und Flickr Commons sowie 300 Millionen Bildern und Videos in Adobe Stock und gemeinfrei trainiert. Es verwendet Bilddatensätze, um verschiedene Designs zu generieren. Es lernt aus dem Feedback der Nutzer, indem es seine Designs anpasst. Und jetzt soll Adobe Firefly also auch dabei helfen, deine Videos aufzupeppen.

Einblick in zukünftige Entwicklungen

Adobe hat auch einen Ausblick darauf gegeben, wie sie generative KI-Modelle von Drittanbietern direkt in ihre Anwendungen integrieren wollen. Das bedeutet, Premiere Pro wird noch flexibler und erweiterbarer für eine Vielzahl von Arbeitsabläufen. Diese Vision verspricht eine Zukunft, in der du Zugang zu einer Vielzahl von leistungsstarken Werkzeugen hast, die nahtlos in deine Arbeitsabläufe integriert sind.

Endlose Möglichkeiten

Die Möglichkeiten der neuen generativen KI-Funktionen sind wirklich beeindruckend. Zum Beispiel könnten professionelle Videobearbeiter in Zukunft die integrierten Videogenerierungsmodelle von OpenAI und Runway nutzen, um B-Roll-Material für ihre Projekte zu generieren. Das spart nicht nur Zeit, sondern erleichtert auch die Bearbeitung erheblich, indem es zusätzliches Material für Feinabstimmungen und Übergänge liefert.

Mehr Effizienz bei der Bearbeitung

Ein weiteres Feature ist die nahtlose Möglichkeit, Frames hinzuzufügen, um Clips zu verlängern. Diese Funktion erleichtert die Bearbeitung und sorgt für fließende Übergänge zwischen den Szenen. Darüber hinaus kannst du jetzt ganz einfach Objekte in Szenen auswählen, verfolgen und ersetzen oder sogar Text zu Video generieren – und das alles direkt in Premiere Pro.

KI-gestützte Audio-Workflows

Zusätzlich zu den neuen generativen KI-Videowerkzeugen von Adobe werden neue Audio-Workflows in Premiere Pro im Mai allgemein für Kunden verfügbar sein und Cuttern alles bieten, was sie brauchen, um die Qualität ihres Sounds präzise zu steuern und zu verbessern. Zu den neuesten Funktionen gehören:

  • Interaktive Fade-Handles: Editoren können benutzerdefinierte Audio-Übergänge schneller als je zuvor erstellen, indem sie einfach Clip-Handles ziehen, um Audio-Fades zu erstellen.
  • Neues Essential Sound-Badge mit Audio-Kategorie-Tagging: Die KI markiert Audioclips automatisch als Dialoge, Musik, Soundeffekte oder Ambiente und fügt ein neues Symbol hinzu, damit Redakteure mit einem Klick sofortigen Zugriff auf die richtigen Steuerelemente für den Job erhalten.
  • Effekt-Badges: Neue visuelle Indikatoren machen es einfach, zu sehen, welche Clips Effekte haben, schnell neue hinzuzufügen und Effektparameter direkt aus der Sequenz heraus automatisch zu öffnen.
  • Neu gestaltete Wellenformen in der Timeline: Die Größe von Wellenformen passt sich intelligent an, wenn sich die Spurhöhe in Clips ändert, während wunderschöne neue Farben die Lesbarkeit von Sequenzen erleichtern.

Darüber hinaus ist seit Februar das KI-gestützte Tool “Enhance Speech” verfügbar, das unerwünschte Geräusche sofort entfernt und schlecht aufgenommene Dialoge verbessert.

Wann soll das Ganze kommen?

Ein genaues Datum für die Erweiterungen hat Adobe noch nicht bekannt gegeben. Die einzige Aussage, die sich dazu finden lässt, ist “noch heuer”. Fest steht nur, dass die Audio-Erweiterungen mit dem Mai-Update kommen werden. Ich gehe einmal davon aus, dass die anderen Erweiterungen für generative Video-KI nach und nach dazu kommen werden. Ich bin auf jeden Fall schon gespannt.

Fazit

Wenn das alles kommt, was da vorgestellt wurde, dann wird in Adobe Premiere Pro vieles einfacher. Objekte zu einem Video hinzufügen oder davon entfernen geht viel einfacher. Wahrscheinlich nicht so, wie im Video gezeigt, aber mit etwas Übung wird es einfach gehen. Das ist durchaus sinnvoller Einsatz von KI.

Weniger sinnvoll finde ich persönlich den Einsatz von KI beim Erstellen von Material, wie zum Beispiel B-Rolls. Einige Anwender könnten sich zu sehr darauf verlassen, dass die KI alle Entscheidungen trifft, anstatt ihre eigenen kreativen Ideen einzubringen.

Deine Meinung ist gefragt

Was hältst du vom Einsatz von KI in der Videobearbeitung? Findest du es sinnvoll oder hältst du es für Hexenwerk? Lass es uns doch in den Kommentaren wissen.

Kommentar verfassen

Nach oben scrollen