Wan2.7 動画生成の使い方完全ガイド——アリババ発オープンソースAIをWeb・API・ローカルで動かす【2026年最新版】

公開日:2026年4月 / 著者:LIF Tech編集部


目次

目次

  1. Wanシリーズとは何か——アリババ発オープンソース動画AI
  2. Wan2.7の新機能——2.6からどこが変わったか
  3. アクセス方法——3つの経路と選び方
  4. プロンプトの書き方——Wanシリーズの鉄則
  5. 他ツールとの比較
  6. よくある質問(FAQ)
  7. まとめ

「高品質なAI動画生成をコストゼロで、しかも自分のPCや自社サーバーで動かしたい」——この一文が、Wan(万象)シリーズを選ぶ理由を全部言い表している。

アリババが開発・オープンソース公開するWanシリーズは、2025年の2.1から2.2・2.6と急速に進化し、2026年3月にWan2.7がリリースされた。テキスト→動画、画像→動画に加え、開始/終了フレーム制御・9枚グリッドI2V・指示ベース動画編集・動画リメイクまで対応。しかもApache 2.0ライセンスで商用利用可、ローカル実行もできる。

この記事では、Wan2.7の新機能と、非エンジニアから開発者まで使える3つのアクセス経路——公式Webプラットフォーム、Alibaba Cloud API、ローカル(ComfyUI)——を、実際の手順付きで解説する。


Wanシリーズとは何か——アリババ発オープンソース動画AI

開発元とライセンス

WanシリーズはAlibaba(アリババ)の通義万象(Tongyi Wanxiang)チームが開発する動画・画像生成AIだ。ポイントは以下の2点:

  • Apache 2.0ライセンス:無料、商用利用可、改変・再配布可
  • モデル重みをダウンロード可能:自社サーバーやローカルPCで動かせる

ChatGPTやClaudeと異なり、モデル本体を手元に置いて動かせるため、機密データを外部に送らずAI動画生成を社内完結で運用できる。この点が多くの企業・クリエイターにとっての最大の訴求点だ。

バージョン進化の系譜

バージョンリリース時期主な追加機能
Wan2.12025年2月T2V・I2V基本機能、Apache 2.0公開
Wan2.22025年7月MoEアーキテクチャ、映画品質の映像制御
Wan2.62025年12月マルチショット・ナラティブ、ネイティブ音声、Starring機能
Wan2.72026年3月FLF2V、9枚グリッドI2V、指示ベース編集、動画リメイク、品質全面向上

Wan2.7の新機能——2.6からどこが変わったか

5領域の同時強化

Wan2.7は「小さなアップデート」ではなく、品質・制御性・ワークフロー対応の3軸を同時に拡張した。具体的には以下の5領域が強化されている:

  1. 画質:映像全体の細部表現・シャープネスが向上
  2. 音声:音声生成の自然さと映像との同期精度が改善
  3. モーション:動きの滑らかさ・物理的な自然さが向上
  4. スタイル一貫性:キャラクターの見た目・背景の視覚的一貫性が強化
  5. 被写体の連続性:複数シーンにまたがるキャラクターのアイデンティティ維持

新機能①:FLF2V(First and Last Frame to Video)

動画の開始フレームと終了フレームを両方指定して、その間の動きをAIが生成する機能。これにより「AからBへ変化する映像」を精密にコントロールできる。

使いどころ:

  • 商品のBefore/Afterを自然なトランジションでつなぐ
  • キャラクターが特定のポーズからポーズへ移行する動画
  • ロゴのモーフィング動画

新機能②:9枚グリッドImage-to-Video

最大9枚(3×3グリッド)の画像を同時入力として動画を生成。単一画像より豊富な視覚情報をモデルに与えることで、スタイル・構図・被写体の一貫性がより高い動画が生成できる。

使いどころ:

  • 商品の複数角度写真→商品紹介動画
  • キャラクターの表情・衣装バリエーションを参照した一貫性の高いアニメ動画
  • ブランドのビジュアルガイドライン(複数参照画像)に沿ったコンテンツ生成

新機能③:被写体+音色参照(最大5本の動画参照)

最大5本の動画を参照素材として入力し、被写体の外見・音声の方向性・シーンのスタイルを精密に固定できる。キャラクター主導のコンテンツ制作に特に有効。

新機能④:指示ベース編集(Instruction-based Editing)

自然言語で「この動画のスタイルをアニメ調に変えて」「背景を夜景に変更して」と指示するだけで既存動画を編集できる。動きの構造を保ちながら外観だけを変更できる。

新機能⑤:動画リメイク

既存動画の構造(カメラの動き・被写体の動き)を維持しながら、スタイルや外観を大きく変換する機能。実写動画をアニメ調に変換したり、逆に合成動画をフォトリアルに変換したりできる。


アクセス方法——3つの経路と選び方

経路の全体像

経路対象ユーザーコストデータ管理技術知識
① 公式Webプラットフォーム全員(試用・軽量利用)無料〜月$20クラウド(Alibaba)不要
② Alibaba Cloud API開発者・大量生成従量課金クラウド(Alibaba)Python基礎
③ ローカル実行(ComfyUI)技術者・機密データ扱う企業無料(電気代のみ)完全自社管理中〜上級

経路①:公式Webプラットフォーム(create.wan.video)

最も手軽な入り口。ノーコード、登録だけで試せる。

URL: https://create.wan.video
料金:
  - Free:無料(透かし入り・低解像度)
  - Pro:月額$5(透かしなし・商用利用可・月300クレジット)
  - Premium:月額$20(新機能への早期アクセス付き)
  - クレジット追加:$1.5〜(単発購入可)

手順:

  1. create.wan.video にアクセス
  2. Googleアカウント等でサインアップ
  3. トップ画面から生成モードを選択:
    • Text to Video:テキストプロンプトのみ
    • Image to Video:画像1枚+テキスト
    • Reference to Video:参照動画+テキスト
  4. プロンプトを入力(英語推奨)
  5. 解像度・尺などの設定を調整して「Generate」をクリック
  6. 生成完了後にダウンロード(Proプラン以上で透かしなし)

無料プランの制限:生成動画に透かし(ウォーターマーク)が入る。商用利用目的ならProプラン(月$5)が最低ライン。1クレジット≒1秒の動画生成が目安。


経路②:Alibaba Cloud API(開発者・大量生成向け)

プロダクトへの組み込み・自動化パイプライン構築に最適。

プラットフォーム: Alibaba Cloud Model Studio
API名称: VideoSynthesis API
モデルID(Wan2.7):
  - wan2.7-t2v(テキスト→動画)
  - wan2.7-i2v(画像→動画)
  - wan2.7-flf2v(開始/終了フレーム→動画)
参考料金(Wan2.2実績値・2.7は要確認):
  - 480p:約$0.015/秒
  - 1080p:約$0.10/秒

注意:Wan2.7のAPIモデルIDは執筆時点(2026年4月)でAlibaba Cloud公式ドキュメントに掲載済みだが、プレビュー期間中は変更の可能性あり。必ずModel Studioのカタログで最新のモデルID文字列を確認してから使用すること。記憶で入力すると404が返る。

Pythonサンプルコード(Text-to-Video):

from alibabacloud_dashscope.video_synthesis import VideoSynthesis
import time

# Wan2.7 テキスト→動画
response = VideoSynthesis.async_call(
    model="wan2.7-t2v",   # ←必ずModel Studioで最新IDを確認
    prompt="""
    A sleek coffee cup on a wooden table in a cozy cafe.
    Steam rises gently. Camera slow push-in toward the cup.
    Warm amber lighting. Soft jazz music. Cinematic style.
    """,
    resolution="720P",
    duration=5,
    seed=42
)
task_id = response.output.task_id

# ポーリングで完了を待つ(15秒間隔推奨)
while True:
    result = VideoSynthesis.fetch(task_id=task_id)
    status = result.output.task_status
    if status == "SUCCEEDED":
        print(f"生成完了: {result.output.video_url}")
        break
    elif status == "FAILED":
        print("生成失敗:", result.output.message)
        break
    print(f"状態: {status} - 15秒後に再確認...")
    time.sleep(15)

Image-to-Video(画像→動画):

response = VideoSynthesis.async_call(
    model="wan2.7-i2v",
    img_url="https://your-cdn.com/product_image.jpg",
    prompt="""
    The product rotates slowly 360 degrees.
    Soft studio lighting. Clean white background.
    Luxury commercial style. 8 seconds.
    """,
    resolution="720P",
    duration=8,
)

FLF2V(開始/終了フレーム→動画):

response = VideoSynthesis.async_call(
    model="wan2.7-flf2v",
    first_frame_url="https://your-cdn.com/frame_start.jpg",
    last_frame_url="https://your-cdn.com/frame_end.jpg",
    prompt="""
    Smooth transition from closed to open bento box.
    Camera holds still. Natural lighting.
    """,
    resolution="720P",
    duration=6,
)

APIの実装Tips

  • タスク結果URLは生成後24時間で失効する。すぐにダウンロード・保存すること
  • ポーリング間隔は15秒以上推奨(それ以下はレート制限を消費するだけ)
  • 高解像度・長尺ジョブは同時実行制限にカウントされる。アカウントティアを確認

経路③:ローカル実行(ComfyUI)

データを一切外部に出したくない場合・コスト最小化したい場合の最終手段。

必要なPCスペック

モデル最低VRAM推奨VRAM備考
5Bモデル(TI2V-5B)8GB12〜16GB一般向け入門。720p対応
14Bモデル(FP8量子化)12GB24GB(RTX 4090)高品質。FP8で実用速度
14Bモデル(FP16)48GB80GBほぼクラウド前提

Wan2.7のComfyUI対応状況は2026年4月時点で順次整備中。現在ComfyUI環境で実績のある最新世代はWan2.2(14B)。Wan2.7対応のワークフロー・再パッケージモデルはComfy-Org HuggingFaceWan-AI GitHubのリリースを継続確認すること。

ステップ①:ComfyUI Desktopのインストール

1. https://www.comfy.org/ にアクセス
2. 「ComfyUI Desktop」(Windows/Mac対応の公式インストーラー)をダウンロード
3. インストーラーを実行(NVIDIAドライバが自動検出される)
4. 初回起動でCUDAの確認・初期設定を完了

既にComfyUIを使っている場合はスキップ。

ステップ②:モデルファイルのダウンロード

5Bモデル(入門・VRAM 12〜16GB向け):

Hugging Face: Comfy-Org/Wan_2.2_ComfyUI_Repackaged
  → wan2.2_ti2v_5B_fp16.safetensors(または fp8版)
  → umt5_xxl_fp8_e4m3fn_scaled.safetensors(テキストエンコーダー)
保存先: ComfyUI/models/diffusion_models/

14Bモデル(高品質・VRAM 24GB向け):

Hugging Face: Comfy-Org/Wan_2.2_ComfyUI_Repackaged
  → wan2.2_t2v_high_noise_14B_fp8_scaled.safetensors(High Noise)
  → wan2.2_t2v_low_noise_14B_fp8_scaled.safetensors(Low Noise)
※ 14Bモデルは高ノイズ・低ノイズの2ファイルが必要
保存先: ComfyUI/models/diffusion_models/

ステップ③:ワークフローの読み込みと実行

ComfyUIの公式サンプルワークフローを使う方法が最もシンプルだ:

1. ComfyUI Desktopを起動
2. 上部メニューの「Examples」からWanのサンプルワークフローを選択
   または HuggingFaceのモデルページに含まれるサンプル画像(PNG)を
   ComfyUIの画面にドラッグ&ドロップ
   → ワークフローが自動的に読み込まれる
3. 各ノードの設定を確認:
   - Load Diffusion Model → モデルファイルのパスを確認
   - CLIPLoader → umt5_xxl_fp8ファイルを選択
   - プロンプト入力欄にテキストを入力
4. 解像度(480P or 720P)・フレーム数を設定
5. 「Queue」をクリックして生成開始

生成時間の目安(5秒動画・RTX 4090環境):

  • 5Bモデル(720p):約9〜15分
  • 14Bモデル(FP8・720p):約30〜60分

初心者向け代替:ComfyUIの設定が難しい場合は「EasyWan22」という有志作成のオールインワン環境が公開されている。ComfyUIを新規にセットアップするより簡単に始められる。


プロンプトの書き方——Wanシリーズの鉄則

基本ルール

Wanシリーズへのプロンプトは英語で80〜120単語が推奨される。短すぎるとAIが勝手に「シネマティックな何か」で空白を埋めてしまい、意図と外れた結果になりやすい。

プロンプトの構造:

[被写体の詳細な描写]
[アクション・動きの説明(時系列順で)]
[カメラワーク(1つだけ)]
[照明・雰囲気]
[スタイル・映像品質]
[音声指示(ある場合)]

カメラワーク一覧(Wan対応確認済み)

英語キーワード意味推奨シーン
camera slow push-inゆっくりズームイン商品クローズアップ・緊張感の演出
camera pull back引いてシーン全体を見せる場所の説明・壮大な場面
pan left / pan right横移動場面転換・環境説明
tilt up / tilt down上下移動建物・人物の全身
tracking shot被写体を追う歩いている人・車
dolly shot被写体と平行に移動映画的な横移動
orbital shot被写体の周りを回転商品360度・人物紹介
crane shot高い位置から見下ろす俯瞰・全体像
handheld camera手持ちカメラ風リアリティ・ドキュメンタリー

鉄則:カメラワーク指示は1つだけ。複数指定はWanでも映像の乱れを招く。

実践プロンプト例(コピペOK・7本)


① 商品紹介動画(EC・広告向け)

A premium skincare serum bottle placed elegantly on a clean white marble surface.
The bottle slowly rotates 360 degrees, catching soft, diffused studio light from the left.
Close-up reveals the glass texture and label in sharp detail.
Camera orbital shot around the product.
White background, luxury cosmetics commercial aesthetic.
Soft ambient sound, subtle shimmer effects.
Photorealistic, 4K quality, shallow depth of field.

② カフェ・飲食店プロモーション(縦型SNS向け)

A barista's hands carefully pour steaming matcha latte into a ceramic cup
at a cozy Japanese cafe counter. Steam rises in gentle wisps.
Autumn afternoon sunlight filters through shoji screens in the background.
Camera tilts down slowly from steam to cup surface revealing latte art.
Warm amber lighting, shallow depth of field.
Soft ambient cafe sounds — low chatter, gentle jazz, rain on window.
Cinematic food photography style. 9:16 vertical.

③ キャラクター一貫性(FLF2V活用)

[First Frame]: Original character stands facing camera, neutral expression, in forest clearing.
[Last Frame]: Same character stands at forest edge looking into sunset distance.

The character walks slowly from center clearing toward the forest edge,
turning once to look back at camera, then continuing forward.
Natural daylight shifting from midday to golden hour.
Camera tracking shot following the character from behind.
Cinematic color grade, warm tones.

④ ビフォー/アフター変換(指示ベース編集)

Transform the visual style of this video.
Keep all camera movements and subject motion exactly the same.
Change the color palette from natural daylight to neon-lit cyberpunk night city.
Add rain reflections on the ground surface.
Maintain character proportions and action timing.
Apply futuristic aesthetic with blue and purple neon lighting.

⑤ BtoB・サービス紹介(横型)

Abstract visualization of glowing data streams flowing between interconnected nodes
representing a global business network. Deep blue and cyan color palette on dark background.
Corporate technology motion graphics style.
Camera slow pull back from a single glowing node to reveal the full network map.
Professional, clean aesthetic.
Subtle electronic ambient sound with soft data processing tones.
16:9 landscape. Cinematic quality.

⑥ 採用・コーポレートビデオ

A diverse team of young professionals collaborates around a glass-walled conference room
in a modern Tokyo office. Some type on laptops, others discuss at a whiteboard.
Natural daylight floods the space from floor-to-ceiling windows.
One team member smiles and points to a presentation screen.
Camera slow tracking shot across the room left to right.
Warm, optimistic atmosphere. Uplifting background music.
Corporate lifestyle photography style, 16:9.

⑦ 動画リメイク(実写→アニメ変換)

Remake this live-action video in the style of a modern Japanese anime.
Maintain the original camera movements and character actions exactly.
Convert the visual aesthetic to: cel-shaded animation, vibrant saturated colors,
clean line art, anime-style lighting with rim light effects.
Keep the emotional tone of the scene but adapt it fully to 2D anime visual language.
High-quality anime production value.

他ツールとの比較

項目Wan2.7Veo 3.1 LiteSeedance 2.0Kling 3.0
ライセンスApache 2.0(完全無料)Gemini API(有料従量)API延期中有料
ローカル実行✅ 可能
データ外部送信なし✅(ローカル時)
商用利用✅ 無制限✅(利用規約確認)✅(一部制限)✅(要確認)
最大動画長15秒(2.6実績)8秒15秒3分
FLF2V(始終フレーム制御)✅(2.7新機能)
9枚グリッドI2V✅(2.7新機能)
指示ベース編集✅(2.7新機能)
コスト(大量生成時)ゼロ(ローカル)$0.05〜/秒参考値$0.10〜/秒$0.07〜/秒
ノーコードアクセス✅(create.wan.video)✅(AI Studio)
日本語情報の充実度✅ 豊富(2.2実績)✅ 充実(新着)✅ 充実✅ 充実

使い分けの指針:

  • コストゼロ・データ外出NG・大量生成Wan2.7(ローカル)
  • ノーコードで今すぐ試したい・API量産Veo 3.1 Lite
  • FLF2V・マルチリファレンス・長尺Wan2.7
  • リップシンク・音声同期重視Seedance 2.0またはWan2.6/2.7

よくある質問(FAQ)

Q1. Wan2.7はWan2.2と何が違いますか?

Wan2.2は高品質な動画生成の基礎を確立しましたが、機能面では「生成するだけ」でした。Wan2.7は開始/終了フレーム制御(FLF2V)・9枚グリッドI2V・指示ベース編集・動画リメイクという「編集・制御機能」を大幅追加し、コンテンツ制作のワークフロー全体をカバーするようになっています。

Q2. 商用利用はできますか?

Apache 2.0ライセンスに基づき、商用利用可能です。ただし生成する動画の内容が他者の著作権・肖像権を侵害しないよう注意が必要です。Webプラットフォーム(create.wan.video)での利用はProプラン以上が商用利用の対象です。

Q3. VRAM 8GBのPCでも動かせますか?

5Bモデルであれば公式には8GB以上対応とされていますが、安定動作のためには12〜16GBが推奨です。8GBでの動作報告はあるものの、生成できる解像度・フレーム数が制限されます。14Bモデルは最低でも24GBが必要です。

Q4. ComfyUI以外で使えますか?

Stability Matrix(ComfyUIの統合管理ツール)経由でも利用可能です。また「EasyWan22」という有志のオールインワン環境も存在します。技術的にはPython直接実行も可能ですが、ComfyUIが最もエコシステムが充実しています。

Q5. Wan2.7のComfyUI対応はいつ安定しますか?

2026年4月時点では対応が整備中です。Comfy-OrgのHugging Face(Comfy-Org/Wan_2.2_ComfyUI_Repackagedの後継)とWan-AI GitHub(github.com/Wan-Video)の更新を確認してください。Wan2.2は既にComfyUIで完全対応済みなので、今すぐローカル実行を始めたい場合はWan2.2から試すのが最も安定した選択肢です。


まとめ:Wan2.7を「今すぐ使い始める」ための最短ルート

用途別の推奨スタートポイントをまとめる:

まず試したい(5分で始める):create.wan.video にアクセス → Google登録 → テキストから動画生成

開発者・プロダクト組み込み: → Alibaba Cloud Model Studioでアカウント作成 → モデルIDを確認 → 本記事のPythonコードで試す

ローカル・機密データ・コストゼロ: → ComfyUI Desktopをインストール → Wan2.2(14B FP8)でまず動かす → Wan2.7対応版が公開され次第マイグレート

Wanシリーズの本質的な強みは**「使い続けるコストがゼロになる可能性がある」**ことだ。APIコストを気にせず、何万本でも動画を生成できるパイプラインを自社で持てる——これはVeo 3.1 LiteやKlingには絶対に真似できない差別化軸である。

LIFRELLへの相談

Wan2.7を含むオープンソース動画AIのローカル環境構築、ComfyUIワークフロー設計、APIを使った自動化パイプライン開発まで、現場マーケター・エンジニア双方の視点でサポートします。

👉 LIFRELLへ無料相談する

本記事の情報は2026年4月時点のものです。Wan2.7のAPIモデルID・仕様は変更の可能性があります。最新情報はWan-AI GitHubおよびAlibaba Cloud Model Studioでご確認ください。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!
目次