はじめに
「頭の中にある映画のワンシーンを、実際の映像にしたい」
これまで、そのためには高価なカメラ、照明機材、そしてCG技術が必要でした。しかし、映像生成AIのパイオニアRunway社がリリースした「Gen-3 Alpha」を使えば、ブラウザに文字を打ち込むだけで、実写と見分けがつかないレベルの映像が生成できます。
本記事では、OpenAIのSoraにも匹敵すると言われる最強AI「Runway Gen-3 Alpha」の登録方法から、思い通りの映像を作るための具体的な操作手順・プロンプト術までを徹底解説します。
※筆者はAI画像・動画生成ツールをクライアント案件(累計200件以上)で実務利用しており、直近ではアパレル系ECの商品プロモーション動画案件や旅行コンテンツのSNS広告素材制作でGen-3 Alphaを活用しました。実体験ベースのつまずきポイントを中心に解説しています(受注実績はランサーズのプロフィールページでご確認いただけます)。
【結論】「カメラワーク指示」がクオリティを分ける
Gen-3 Alphaの最大の特徴は、映像の美しさだけでなく「監督のような指示」を忠実に守る点にあります。
- Gen-2 (旧モデル): 動きが不安定で、被写体が溶けたり変形しやすい。
- Gen-3 Alpha (最新): 「ズームインしながら右にパンする」といった複雑なカメラワークや、物理法則(水の流れや布の動き)を正確に再現可能。
結論:ただプロンプトを入れるだけでなく、「カメラの動き」を指定することで、プロ並みのシネマティックな映像が作れます。
Runway Gen-3 Alpha でできること
現在、主に以下の2つのモードが利用可能です。
- Text to Video: 文字(プロンプト)だけでゼロから動画を作る。
- Image to Video: 用意した画像を動かす。※失敗が少なく推奨
特に「Image to Video」は、事前にMidjourneyやStable Diffusionで理想の静止画を作ってからRunwayで動かす「二段階生成ワークフロー」が、現在プロの間で最も使われている手法です。出力画像の品質をコントロールしてからRunwayに渡すことで、クレジットの無駄遣いを大幅に減らせます。
プラン比較(2026年現在)
※注意: 2026年現在、Gen-3 Alphaを利用するには基本的に「Standard Plan(月額15ドル〜)」以上の課金が必要です。無料枠では旧モデル(Gen-2)しか使えない場合が多いためご注意ください。
[表]
YouTube公開やクライアント納品が目的なら、透かしが入らないProプラン(月額35ドル)の方が結果的にコスパが良いケースが多いです。Standardは個人の学習・実験用と割り切るのがおすすめです。
【完全ガイド】実践!動画生成ステップ
Step 1: アカウント作成とプラン選択
- Runway公式サイトにアクセスし、「Get Started」から登録します。Googleアカウント連携が最速です。
- ダッシュボード左上の「Try Gen-3 Alpha」をクリックします(課金画面が出た場合はプランを選択)。
初回のつまずきポイント: 登録直後は「Gen-3 Alpha」ボタンがグレーアウトされている場合があります。左サイドバーから「Video」→「Gen-3 Alpha」と順に進んでみてください。それでも表示されない場合はブラウザのキャッシュをクリアすると解決することが多いです。
Step 2: Text to Video(文字から動画へ)
最も基本的なモードです。画面左側のメニューから「Text to Video」を選択します。
▼ プロンプト入力の黄金公式
以下の3要素を順番に入力すると、AIに伝わりやすくなります。
[カメラワーク] + [被写体の動き] + [場所・スタイル]
入力例:
Low angle drone shot zooming fast into a cyberpunk city street, neon lights reflecting on wet pavement, cinematic lighting, 4k.
(ローアングルのドローン撮影、サイバーパンクな街路へ急速ズーム、濡れた路面に反射するネオン、映画のような照明、4K)
入力したら「Generate」をクリック。約60〜90秒で動画(5秒または10秒)が生成されます。
実務Tip: 最初の1〜2回は5秒で生成してプロンプトの方向性を確認し、気に入ったら10秒で再生成するのがクレジットの節約になります。
Step 3: Image to Video(画像を動かす)
生成ガチャ(思い通りの絵が出ない現象)を防ぐための「本命」機能です。
- 事前にMidjourneyなどで「完璧な1枚絵」を作っておきます。
- Runwayの画面で「Image to Video」タブに切り替えます。
- 中央のアップロードエリアに画像をドラッグ&ドロップします。
- プロンプト欄には「どう動かすか」だけを入力します。
例: Slow motion, hair blowing in the wind, camera pans right.(スローモーション、髪が風になびく、カメラは右へ)
画像サイズのTip: 入力画像は1280×768px(横長16:9)か768×1280px(縦長9:16)で用意するとアスペクト比が合いやすく、黒帯や余白が入りにくいです。Midjourneyで生成する際は --ar 16:9 または --ar 9:16 を末尾につけると一致します。
> 【実体験 Before/After】Text to Video vs Image to Videoの差
>
> アパレル系EC案件でバッグの商品プロモーション動画を制作した際、最初はText to Videoで直接プロンプトを入力し続けました。A luxury leather bag rotating on marble surface, studio lighting と入力しても、バッグの形状が途中で崩れたりロゴが消えたりと安定せず、3回の試行で約150クレジットを消費。
>
> 方針を変えてMidjourneyで商品画像(--ar 16:9指定)を先に生成し、Image to Videoに切り替えて 360 degree slow rotation, dramatic studio lighting と入力したところ、1回目の生成(50クレジット)でクライアント確認OKが出るクオリティの映像が出力されました。
>
> クレジット消費量が3分の1になった上、クオリティも向上。それ以降の案件ではImage to Videoをデフォルトワークフローとして採用しています。
コピペで使えるプロンプトテンプレート集
プロンプトに迷ったら以下をそのまま貼り付けて試してみてください。英語が苦手な方はChatGPTでの英語プロンプト作成を活用するのがおすすめです。
風景・ドローン系
“
Aerial drone shot slowly rising above a misty Japanese forest at sunrise, golden hour light filtering through ancient cedar trees, 4K cinematic.
`
→ 日本の森の夜明けをドローンで上昇しながら撮影したシーン。旅行Vlogや風景動画に最適。
人物・ポートレート系
`
Close-up shot of a young woman's face, slight smile forming, soft bokeh background, shallow depth of field, film grain, slow zoom in.
`
→ 女性の表情クローズアップ。Film grainを加えることで映画的な質感が出ます。
商品・広告系
`
Product shot, luxury perfume bottle rotating 360 degrees on black marble surface, dramatic studio lighting, macro lens, cinematic color grading.
`
→ 高級香水ボトルを360度回転させる商品広告風動画。ECサイトやSNS広告に応用できます。
応用テクニック:カメラコントロール機能
プロンプトで書くのが難しい場合、Gen-3に搭載されているUI操作によるカメラ制御を使うと直感的です。
- Zoom: 「In(寄る)」「Out(引く)」をスライダーで設定。
- Pan / Tilt: カメラの水平・垂直移動を設定。
- Motion Brush: 特定の部分だけを動かす機能。例えば「空の雲だけを流す」といった指定が可能です。
組み合わせTip: UIスライダーで大まかなカメラワークを設定し、プロンプトで「slow motion」「film grain」「bokeh」などの質感を追加すると、両方のメリットを活かせます。実務ではこの組み合わせが最も再現性が高いです。
注意点とトラブルシューティング
クレジット消費が激しい
Gen-3は高性能な分、クレジット消費量が多いです(Gen-2の数倍)。
対策: まずは「Image to Video」で画像のクオリティを担保してから動画化することで、無駄な生成を防ぎましょう。
消費目安: Standardプラン(625クレジット/月)で5秒動画1本あたり約50クレジット消費。月に約12〜15本が上限です。業務利用ならProプランへの移行を推奨します。
人間の手足や顔が崩れる
激しい動き(ダンスや格闘)を指定すると、手足が増えたり顔が崩れたりすることがあります。
対策: 最初は「スローモーション」や「歩く」程度のシンプルな動きから始め、徐々に複雑な動きを試すのがコツです。また、人物の顔や手が重要な動画はImage to Videoで生成することで品質が安定します。
生成が始まらない・キューに入ったまま
Runwayのサーバーが混雑する時間帯(米国の昼間=日本時間の深夜〜早朝)は待ち時間が長くなります。
対策: 日本時間の午前中(米国の深夜)に実行すると比較的スムーズです。30分以上キューに留まる場合は、一度タブをリロードして再試行してみてください。
よくある質問 (Q&A)
Q1. 生成した動画は商用利用できますか?
A. はい、有料プランなら可能です。
Standardプラン以上で生成したコンテンツは、商用利用(YouTube収益化や広告利用)が認められています。ただしProプラン以上で透かしなしの動画を取得することを強く推奨します。
Q2. 日本語で指示できますか?
A. 基本は英語です。
日本語でも動くことはありますが、精度が落ちます。ChatGPTやDeepLを使って「英語のプロンプト」に変換してから入力することを強くおすすめします。
Q3. 生成した動画の長さは変えられますか?
A. 5秒または10秒から選択できます。
10秒生成はクレジット消費が約2倍になります。まず5秒で方向性を確認し、気に入ったら10秒で再生成するのが効率的です。
まとめ
Runway Gen-3 Alphaは、もはや「AIのおもちゃ」ではありません。プロの映像制作現場でも使える強力なツールです。
- Text to Video: アイデア出しや風景・抽象表現に。
- Image to Video: 確実に狙った絵を動かしたい時に。
- カメラコントロール: UIとプロンプトを組み合わせてシネマティックな仕上がりに。
Next Action: まずは月額15ドルのStandardプランに加入し、手持ちの「旅行写真」をアップロードして、Drone shot, moving forward` と入力してみてください。静止画だった思い出が、感動的な映像として蘇ります。
より高品質な素材を用意したい方は、先にStable Diffusionで理想の画像を生成してからRunwayで動かすワークフローも試してみてください。クオリティが格段に上がります。
—
実際に試してみた感想をコメントで教えてください。「このプロンプトで上手くいった」「ここでつまずいた」など、どんな声でも大歓迎です。Standardプランへの移行を迷っている方のご質問もお気軽にどうぞ。
—
この記事の内容に関する開発・自動化のご依頼
AI動画生成の業務活用・自動化パイプラインの構築など、実装のご相談はお気軽にどうぞ。
累計200件以上の受注実績(残念評価ゼロ)があります。


コメント