【2026年版】ControlNetの使い方!線画抽出やポーズ指定を使いこなすコツ!

「AIで絵を描くと、ポーズがどうしてもグチャグチャになる」「手描きのイラストをそのままAIで綺麗に塗りたい」と思ったことはありませんか。プロンプトだけで理想の1枚を出すのは、まるでゴールのないマラソンをしているようなものです。

そこで頼りになるのが「ControlNet(コントロールネット)」です。これはAIに「構図の手本」を直接教えるためのツール。これさえ使いこなせれば、キャラクターの姿勢や背景の奥行きをミリ単位でコントロールできます。今回は、2026年の主流となっている手法をベースに、誰でも失敗せずに使いこなすコツを分かりやすくお伝えします。

目次

ControlNetの使い方は?線画抽出とポーズ指定をまずマスターしよう

ControlNetを初めて使うなら、まずは「線画抽出」と「ポーズ指定」の2つから触ってみるのが一番の近道です。この機能は、AIにとっての「下書き」や「骨組み」の役割を果たします。プロンプトという言葉の指示に、視覚的な情報をプラスすることで、生成の成功率は劇的に上がります。

写真から一瞬で輪郭を抜き出すCannyの仕組み

Canny(キャニー)は、写真やイラストから「はっきりした輪郭線」を抜き出す機能です。例えば、お気に入りの椅子の写真があれば、その形をそのままに、素材や色だけをAIに変えてもらうことができます。

使い方はとてもシンプルで、元になる画像をアップロードして、プリプロセッサに「canny」を選ぶだけです。すると、黒い背景に白い線で描かれた輪郭画像が作られます。この線があるおかげで、AIは形を崩さずに新しい絵を描き上げることが可能になります。

棒人間を操って思い通りの姿勢を作るOpenPose

OpenPose(オープンポーズ)は、人間の関節の位置を「棒人間」として抜き出す機能です。複雑な座り方や、空を飛ぶようなアクロバティックなポーズも、この棒人間さえあれば一発で固定できます。

プロンプトで「走っている」と書くだけでは、足が3本になったり不自然に曲がったりしがちですよね。OpenPoseを使えば、AIに関節の曲がり角を直接指定できるため、人体崩壊のリスクを最小限に抑えられます。理想のポーズを見つけたら、まずはボーン(骨組み)を抽出してAIに渡してあげましょう。

PreprocessorとModelの正しい組み合わせ方

ControlNetを使う上で一番間違いやすいのが、プリプロセッサとモデルの組み合わせです。プリプロセッサは「画像から情報を抜き出すソフト」、モデルは「その情報を読み取るAI」のこと。

Cannyで線を抜き出したなら、モデル側も必ず「canny」専用のファイルを選ばなければなりません。ここが噛み合っていないと、エラーが出たり真っ黒な画像が出たりします。「抜き出す道具」と「読み取る道具」の名前を揃えること。 これが、ControlNetを動かすための鉄則です。

ポーズ指定を使いこなすコツ!OpenPoseの設定と3D活用

OpenPoseをただ使うだけでなく、さらに一段上のクオリティを目指すなら、最新の抽出モデルや専用のエディタを活用しましょう。2026年現在、AIの進化によって、かつては苦手だった「指先」や「顔の表情」まで完璧に指定できるようになっています。

指先の崩れを劇的に減らすdw_openpose_fullの強み

以前のモデルでは指が4本になったり、棒のように固まったりすることがよくありました。しかし、最新の「dw_openpose_full」を使えば、手首から指先まで合計21箇所の関節を正確に捉えることができます。

手の表情はイラストの印象を大きく左右するポイントです。このプリプロセッサを選ぶだけで、ピースサインや髪に触れる指の動きが驚くほど自然になります。「指が上手く描けない」と悩んでいるなら、迷わずdw_openpose_fullに設定を変更してみてください。

3Dポーズエディタを使ってオリジナルの構図を作る

「手元にいい写真がない」という時は、WebUIに統合された「3D OpenPose Editor」などの拡張機能を使ってみましょう。画面上に表示される3Dモデルをマウスで動かして、自分だけのポーズをゼロから作れます。

奥行きのある座り方や、寝そべってこちらを見上げるアングルなど、写真を探すよりも自分で動かした方が早い場合も多いです。作ったポーズはそのままControlNetに送信できるため、創作の幅が無限に広がります。

キャラクターの顔の向きや視線を固定する手順

OpenPoseは体だけでなく、顔のパーツ(目、鼻、口、耳)の位置も固定できます。これによって、「少しだけ右を向く」「斜め下を見る」といった細かい視線のコントロールが可能になります。

視線が決まると、キャラクターに「魂」が宿ったような説得力が生まれます。顔のボーン情報をしっかり抜き出すことで、狙った方向を向かせながら、表情の豊かさを保ったまま生成できるようになります。

線画抽出を使いこなすコツ!自作イラストをAIで着色する

自分で描いたラフ画や線画をAIに塗ってもらいたい時は、線画抽出の機能が真価を発揮します。ただ線をなぞるだけでなく、元の線の太さや繊細さをどう活かすかが、仕上がりを左右する重要なポイントです。

アニメの清書に適したLineartモデルの選び方

Cannyよりも滑らかで、イラストレーターが描いたような綺麗な線を好むなら「Lineart(ラインアート)」がおすすめです。これはアニメの動画用紙のような、強弱のある美しい線を抽出してくれます。

抽出時に「lineart_anime」などの専用プリプロセッサを選ぶと、背景をすっきり消して主線だけを際立たせてくれます。自作のイラストをAIで本格的なアニメ塗りにしたいなら、Lineartこそが最適なパートナーになります。

ラフ画の雰囲気を壊さずに塗りだけを任せる設定

「まだ線が整っていないラフ画」から塗りを進めたい時は、「SoftEdge(ソフトエッジ)」というモデルを試してみてください。Cannyほど線をガチガチに固定せず、少しぼかした状態で情報を伝えてくれます。

これによって、ラフの勢いを活かしつつ、AIがいい具合に形を補完してくれます。ガチガチに固めすぎないことで、AIならではの綺麗な塗りのグラデーションを引き出しやすくなるメリットもあります。

線の太さや濃さをスライダーで微調整する方法

ControlNetには、抽出した線の影響力を変える設定項目があります。特に「Threshold(しきい値)」をいじることで、余計なノイズを消したり、薄い線を濃くしたりできます。

  • 下書きのゴミが多い時は、数値を上げて線を整理する
  • 細かい装飾を残したい時は、数値を下げて拾う情報を増やす
  • 生成画面でプレビューを見ながら、線が途切れていないか確認する

自分の描いた線の魅力を最大限に引き出すために、まずはプレビュー画面で「理想の線」が出ているかチェックする癖をつけましょう。

奥行きを支配するDepthで構図を完璧に固定する

背景にこだわりたい時や、キャラクターと物の位置関係を正しく保ちたい時に欠かせないのが「Depth(深度)」です。これは画面内の「手前」と「奥」を白黒の濃淡でAIに教える仕組みです。

ZoeやMidasを使って写真の立体感をコピーする

Depthモデルの中でも「Zoe」は特に精度が高く、2026年現在のスタンダードとなっています。これを使えば、写真に写っている階段の段差や、テーブルの上に置かれた小物の位置を正確に読み取れます。

白い部分は手前、黒い部分は奥、という情報をAIが理解するため、キャラクターを「テーブルの向こう側」に立たせるといった指示が完璧に通ります。構図の立体感がおかしいと感じたら、Depthを使って空間のルールをAIに教えてあげてください。

建物や家具が歪まないように配置をキープする

プロンプトで背景を指定すると、家具が壁に埋まったり、建物のパースがぐにゃぐにゃになったりすることがあります。Depthを使えば、元画像にある椅子の脚や柱の位置を厳格に守らせることができます。

特に室内のデザインを固定したい時に威力を発揮します。窓の位置やドアの大きさを固定したまま、部屋のテイストだけを「和風から北欧風に変える」といったリフォームのような使い方も可能です。

風景のパースを維持しながら季節だけを変える技術

山並みや街路樹の並びなど、広大な景色を固定したい時にもDepthは有効です。遠くの山と近くの道の距離感をAIが把握するため、風景が崩れる心配がありません。

構図のパース(遠近法)を完全に維持したまま、夏の新緑を秋の紅葉に、あるいは冬の雪景色に一瞬で変えることができます。 同じ場所で季節だけが流れるような、シリーズものの作品を作る際に非常に重宝するテクニックです。

重みとステップ数を調整して生成の精度を最大化する

ControlNetが「効きすぎて不自然」になったり、逆に「全然言うことを聞かない」時は、重みとステップ数の設定を見直しましょう。この調整一つで、AIにどれだけ「お任せ」するかのバランスが決まります。

効きすぎを防ぐControl Weightの最適な数値

「Control Weight(適用重み)」は、標準では1.0になっています。しかし、ポーズがガチガチすぎてキャラの見た目が崩れる場合は、0.5〜0.8程度に下げてみてください。

数値を下げることで、AIがプロンプトの指示を反映しやすくなり、見た目の綺麗さがアップします。逆に、ポーズを何が何でも守らせたい時は1.2〜1.4に上げます。「形を守る力」と「綺麗に描く力」のちょうどいい妥協点を探るのが、上級者への第一歩です。

生成の後半で制御を外すEnding Control Stepのメリット

「Ending Control Step」は、画像生成のどのタイミングで制御をやめるかを決める設定です。これを0.8(80%の地点)に設定するのが非常におすすめです。

生成の最後20%でControlNetの影響をオフにすることで、AIが最後の仕上げを自分の得意なスタイルで自由に行えます。これによって、ポーズはしっかり固定されているのに、肌の質感や服のシワは最新モデル特有の美しさで仕上がるようになります。

プロンプトとControlNetのどちらを優先するかの判断

Control Modeという設定項目では、「Balanced(バランス)」「My prompt is more important(プロンプト優先)」「ControlNet is more important(制御優先)」の3つから選べます。

基本は「Balanced」でOKですが、プロンプトで指定した服の色やキャラの特徴が消えてしまう時は、プロンプト優先に変えてみましょう。逆に、どうしてもポーズがズレてしまう時は制御優先に切り替えます。現在の悩みが「形」にあるのか「内容」にあるのかで、このモードを使い分けるのがコツです。

複数のControlNetを重ねるMulti-ControlNetのやり方

一つだけの制御で満足できない時は、複数のControlNetを同時に使う「Multi-ControlNet」に挑戦しましょう。ポーズを指定しながら線画も固定する、といった贅沢な使い方が可能になります。

線画とポーズを同時に指定してキャラを固定する

例えば、自作のキャラクターの線画を読み込ませた「Lineart」と、理想のポーズを指定した「OpenPose」を同時に動かします。これで、自分の描いたキャラが、狙い通りのポーズで現れます。

別々の情報を重ねることで、AIに与える「ヒント」の量が増え、失敗する確率をグンと下げられます。「このキャラを、このポーズで、この場所で」という複雑な要望も、重ねがけをすれば簡単に叶えることができます。

背景のDepthとキャラのOpenPoseを組み合わせる

背景を固定するための「Depth」と、人物を固定するための「OpenPose」を分担させるのも賢いやり方です。背景画像から奥行きを抜き出し、そこに自分で作った棒人間を合成するように配置します。

これによって、キャラクターが背景の地面にしっかり足をつけ、椅子に自然に座っているような説得力のある絵が完成します。複数の制御を組み合わせることで、1枚の絵としての完成度が飛躍的に高まります。

読み込む順番とVRAM不足を防ぐためのチェック項目

複数のControlNetを使うと、パソコンのビデオメモリ(VRAM)を多く消費します。2026年の主流環境である「Forge」などのツールでは、メモリ消費を抑える「Integrated」オプションが用意されているので、忘れずに活用しましょう。

また、重たい処理を重ねる時は、生成サイズをあえて小さく(例:512×512)して構図を決め、後で「Hires. fix」を使って拡大するのが安全です。エラーで止まってしまうのを防ぐために、無理のないサイズから少しずつ重ねていくのが成功の秘訣です。

IP-Adapterを使って写真の雰囲気や顔を固定する

ControlNetの仲間には、ポーズや線だけでなく「見た目そのもの」を固定する「IP-Adapter」という非常に便利な機能があります。これを使えば、お気に入りの画像の「空気感」をそのままコピーできます。

参考画像の色使いやライティングをそのまま移植する

IP-Adapterに風景写真などを読み込ませると、その画像が持っている色味や光の当たり方をAIが学習して、生成する絵に反映させてくれます。プロンプトで「夕暮れ」と書くよりも、実際の夕焼けの写真を読み込ませる方が、はるかにリアルな色彩になります。

ライティングの調整はプロンプトでは難しい部分です。「こんな色合いの絵にしたい」という参考画像があるなら、IP-Adapterを使ってAIにその雰囲気を見せてあげるのが一番手っ取り早いです。

顔固定モデルで特定のキャラクターを出し続ける方法

「IP-Adapter FaceID」などの専用モデルを使えば、特定の人物の顔立ちを高い精度で維持できます。1枚の顔写真があれば、その特徴を引き継いだまま別のポーズをさせたり、別の服を着せたりすることが可能です。

これまでは「LoRA」という追加学習が必要でしたが、IP-Adapterなら写真を1枚用意するだけで準備完了です。同じキャラクターで連作を作りたい人にとって、これほど頼もしい機能はありません。

持ち物や服のデザインだけを維持して着せ替える

特定のアイテムや衣装の柄を固定したい時も、IP-Adapterが役立ちます。お気に入りのスニーカーや複雑な模様のドレスを読み込ませ、部分的に影響を与えることで、デザインを崩さずに着せ替えを楽しめます。

ポーズをOpenPoseで固定し、衣装の細部をIP-Adapterで補完する。この組み合わせこそが、2026年における「キャラクターデザインを固定する最強のワークフロー」と言えます。

2026年の主流環境でControlNetを導入する手順

2026年現在、ControlNetを使うための環境はより使いやすく進化しています。代表的なツールである「Stable Diffusion WebUI Forge」や、より高度な制御ができる「ComfyUI」での導入ポイントを押さえておきましょう。

ForgeやComfyUIでのモデル配置とフォルダの場所

モデルファイル(.safetensorsなど)は、適切なフォルダに入れないと画面に表示されません。Forgeであれば models/ControlNet フォルダに、ComfyUIであれば models/controlnet フォルダに格納します。

最近のモデルはファイルサイズが大きくなっていますが、2026年の環境では「Flux.1」などの次世代モデルに対応した高性能なものが増えています。自分が使っているベースモデル(SD1.5、SDXL、Flux等)に合ったControlNetモデルを選んで入れることが大切です。

最新のUnionモデルを使って複数の機能を使い分ける

最新のトレンドとして、一つのファイルでCannyやDepth、OpenPoseなど複数の役割をこなせる「Union(ユニオン)」形式のモデルが登場しています。これを使えば、機能ごとに重いファイルを何個もロードする必要がなくなります。

設定画面で「どの機能として使うか」を切り替えるだけで済むため、ハードディスクの容量も節約でき、切り替えもスムーズです。最新の環境にアップデートしているなら、このUnionモデルを導入して作業効率を上げましょう。

プレビュー画面で抽出結果を事前に確認する癖付け

ControlNetを動かす前に、必ず爆弾のようなアイコン(実行ボタン)を押して、プリプロセッサが正しく情報を抜き出せているか確認しましょう。ここで線がぐちゃぐちゃだったり、棒人間が折れていたりすると、絶対にいい絵は出ません。

「まずはプレビューを見て、ダメなら設定(Threshold等)をいじる」。このひと手間を惜しまないだけで、無駄な生成時間を大幅に削ることができます。

ツール名特徴向いている人
WebUI Forge動作が軽く、従来のWebUIと同じ感覚で使える初心者〜中級者
ComfyUI自由度が非常に高く、複雑な重ねがけが得意こだわり抜きたい上級者
Flux.12026年現在の超高画質モデル。制御も精密最高画質を求める人

最後に、ポーズ指定と線画抽出を組み合わせるための、実践的なプロンプトを紹介します。

自作キャラのポーズを固定する最強プロンプト

Positive Prompt:

masterpiece, best quality, ultra-detailed, 1girl, (solo:1.3), [Your Character Description], dynamic pose, standing on a cobblestone street, soft natural lighting, (lineart:1.1), (openpose:1.0)

Negative Prompt:

low quality, bad anatomy, extra fingers, missing arms, (deformed bone:1.2), lowres, blurry, multiple people, (wrong lineart:1.1)

まとめ:ControlNetでAIを「自在に操る楽しさ」を味わおう

ControlNetは、AI画像生成を「運任せのガチャ」から「自分の手で作り上げる作品」へと変えてくれる魔法のツールです。一度使い方を覚えてしまえば、もう思い通りのポーズが出なくてイライラすることはありません。

  • まずはCannyとOpenPoseから始めて、下書きの力を借りる。
  • dw_openpose_fullを使って、指先まで妥協しない絵作りをする。
  • 線画抽出はLineartやSoftEdgeを、用途に合わせて使い分ける。
  • Ending Control Stepを0.8に設定して、仕上げをAIに任せる。
  • IP-Adapterを組み合わせて、顔や雰囲気の固定にも挑戦する。

これらのコツを一つずつ試していくうちに、あなたの想像力はAIの制約を超えて自由に羽ばたけるようになります。まずは手元にある1枚の写真から、新しい世界を創り出してみてください。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

目次