- Wie funktioniert KI Bild zu Video?
- Lade ein Bild hoch und gib einen Prompt ein, der Bewegung, Kameraführung und Stil beschreibt. Das Tool sendet beides an den Wan-2.2-14B-Lightning-Bild-zu-Video-Endpunkt auf HuggingFace und liefert ein generiertes Video im Chat zurück.
- Wie schreibe ich einen guten Bild-zu-Video-Prompt?
- Beschreibe Motivbewegung, Kamerabewegung, Atmosphäre und Stil. Beispiel: "Langsame cineastische Kamerafahrt nach vorne, sanfter Wind in den Haaren, warmes Abendlicht, realistische Bewegung."
- Brauche ich Bild und Text-Prompt?
- Ja. Dieses Tool benötigt ein Eingabebild und einen Prompt. Das Bild liefert den visuellen Kontext, der Prompt steuert die Animation.
- Welches Modell ist standardmäßig ausgewählt?
- Standardmäßig startet die Seite mit Wan 2.2 14B Lightning. Du kannst im Modell-Dropdown jederzeit auf LTX-2 Turbo Video wechseln.
- Welches Ausgabeformat erhalte ich?
- Die generierten Ergebnisse werden als herunterladbare Video-Datei (typischerweise MP4) bereitgestellt und im Chat-Player als Vorschau angezeigt.
- Wie lange dauert die Generierung?
- Die meisten Generierungen dauern wenige Sekunden bis etwa eine Minute, abhängig von Auslastung, Prompt-Komplexität und Einstellungen.
- Bleiben meine Uploads privat?
- Dein Bild und Prompt werden zur Generierung an HuggingFace-Inferenzendpunkte gesendet. Eine dauerhafte Speicherung deiner generierten Medien ist nicht beabsichtigt.