- Comment fonctionne l'outil IA image vers vidéo ?
- Importez une image et saisissez un prompt décrivant mouvement, caméra et style. L'outil envoie les deux au endpoint image-to-video Wan 2.2 14B Lightning sur HuggingFace et renvoie une vidéo générée dans le chat.
- Faut-il une image et un prompt texte ?
- Oui. Cet outil nécessite une image d'entrée et un prompt. L'image fournit le contexte visuel, et le prompt pilote l'animation.
- Quel format de sortie et quel délai ?
- Le résultat est généralement fourni en MP4 téléchargeable et affiché dans l'aperçu du chat. La plupart des générations prennent de quelques secondes à environ une minute.
- Ai-je besoin à la fois d'une image et d'un prompt textuel ?
- Oui. Cet outil nécessite une image d'entrée et un prompt. L'image fournit le contexte visuel, et le prompt contrôle le comportement de l'animation.
- Quel format de sortie vais-je obtenir ?
- Les résultats générés sont renvoyés sous forme de fichier vidéo téléchargeable (généralement MP4) et affichés dans le lecteur d'aperçu du chat.
- Combien de temps dure la génération ?
- La plupart des générations se terminent en quelques secondes à environ une minute, selon la charge de la file d'attente, la complexité du prompt et les paramètres.
- Mes téléchargements sont-ils privés ?
- Votre image et votre prompt sont envoyés aux points de terminaison d'inférence hébergés par HuggingFace pour la génération. Nous n'avons pas l'intention de stocker de manière permanente vos médias générés.