TL;DR Seedance2-skill est un skill agent pour générer des prompts optimisés pour Jimeng Seedance 2.0, le modèle vidéo multimodal ByteDance. Il gère text/image/video/audio, @mention syntax, multi-shot et contraintes comme 2K/15s [README] [SKILL.md].
- Installation : npx skills add dexhunter/seedance2-skill ou git clone dans Claude Code/Cursor [install] [Reddit].
- Support quad-modal : jusqu’à 9 images, 3 vidéos (2-15s), audio lip-sync 8+ langues [guide complet] [docs].
- Pour films courts, pubs, MV ; syntax @Image1, camera lang (pan, zoom) [2000+ prompts] [tuto vidéo].
Seedance2-skill simplifie la création de prompts pour Jimeng Seedance 2.0, le modèle vidéo IA multimodal de ByteDance. Le repo le définit comme un skill agent pour Claude Code/Cursor/Cline, qui traduit des idées créatives en prompts structurés exploitant les forces du modèle : 2K natif, multi-shot auto, lip-sync temps réel et référence universelle jusqu’à 12 assets [README anglais] [README chinois].
Seedance 2.0 excelle en quad-modal (text/image/video/audio), avec @mention pour assigner rôles (@Image1 style, @Video1 motion, @Audio1 lip-sync) et langage caméra précis (pan left, zoom in). Le skill encode ces contraintes : durée 15s max, 720p web/2K pro, cohérence multi-shot [docs officielles] [guide pro]. Parfait pour courts-métrages IA, pubs produits ou clips musicaux sans expertise prompting.
Le projet arrive pile avec l’ouverture publique de Seedance 2.0 (Higgsfield, seedance2.app), où les prompts complexes font la différence. Mais attention : multimodal puissant = prompts verbeux, et un skill mal calibré peut générer du bruit inutile. Les communautés Reddit et GitHub le positionnent comme un accélérateur créatif [Reddit SoraAI] [topic GitHub].
Seedance2-skill pour prompts vidéo IA
Seedance2-skill est un skill agent qui écrit des prompts efficaces pour Jimeng Seedance 2.0. Il supporte Claude Code et agents compatibles, en gérant text/image/video/audio inputs et syntax @ pour contrôle précis [SKILL.md].
Le README cible créateurs voulant vidéo via text/images/vidéos/audio. Exemple : décrire scène, uploader refs, skill génère prompt avec @Image1, camera moves et timing [README] [version CN]. Processus : analyse idée → structure multi-shot → refs assignment → lang caméra → contraintes (15s, 2K).
Avantage : automatise syntax complexe (@Video1 pour motion, @Audio1 lip-sync 8 langues). Limite : dépend qualité refs et clarté input créatif [guide Morphic].
Jimeng Seedance 2.0 expliqué
Seedance 2.0 est multimodal : 9 images max (style/char/prod), 3 vidéos (2-15s motion/camera), audio lip-sync, text prompt. Sortie 720p web/2K pro, multi-shot auto cohérent [docs] [guide].
@mention contrôle : @Image1 background, @Video1 action ref, @Audio1 dialogue. Camera lang : pan left 30deg, zoom in 1.2x, dolly back. Contrainte : total refs 12, formats spécifiques [skill similaire] [features]. Physique/motion réaliste, style consistant.
Vs Kling/Veo/Sora : quad-modal unique, lip-sync natif chinois/dialectes. Limite web app : 720p/15s gratuit, 2K payant [tuto Higgsfield].
Installation et workflow
Pour Claude Code : npx skills add dexhunter/seedance2-skill ou git clone https://github.com/dexhunter/seedance2-skill.git ~/.claude/skills/seedance2-skill. Puis /seedance2 [idée vidéo] [README install] [Reddit install].
Workflow : décrire scène/produit/MV → skill génère prompt structuré (refs, shots, camera, constraints) → copy-paste Seedance2.app/Higgsfield [skill similaire]. Support Cursor/Cline via compatibilité agent.
Bonus : README CN pour prompts chinois. Limite : nécessite accès Seedance (payant pro) [pricing docs].
Astuces prompting Seedance
Skill excelle multi-shot : split prompt en scenes cohérentes. Ex : pub produit → shot1 prod closeup @Image1, shot2 usage @Video1, shot3 call-to-action [2000+ exemples].
Camera : precise lang (track right slow, crane up). Lip-sync : @Audio1 + dialogue text. Cohérence char : multiple @Image refs [pipeline complète] [astuces pro]. Test physics/motion avec refs vidéo courtes.
Risque : prompts trop denses → incohérence. Skill aide, mais itérer sur outputs [prompt breakdown].
FAQ
Seedance2-skill marche avec quel agents ?
Claude Code, Cursor, Cline et agents compatibles skills [README] [Reddit compat].
Quels inputs Seedance 2.0 gère-t-il ?
Text, 9 images, 3 vidéos 2-15s, audio lip-sync. @mention pour assigner [docs] [inputs].
Comment installer le skill ?
npx skills add dexhunter/seedance2-skill ou git clone ~/.claude/skills [install].
Pour quels usages le skill ?
Courts IA, pubs, MV, storytelling multi-shot [SKILL] [exemples].
Seedance 2.0 gratuit ?
Web app limitée 720p/15s ; 2K pro payant via Higgsfield/seedance2.app [pricing tuto].
À retenir
- Quad-modal puissant : text/image/video/audio refs @mention [docs].
- Skill simplifie syntax : camera lang, multi-shot, contraintes auto [SKILL].
- Install rapide : npx ou git clone Claude Code [README].
- Pour créatifs : films courts/pubs/MV sans expertise [Reddit].
- Évolutif : communauté prompts actifs [awesome prompts].
"