HITL(Human-in-the-loop)とは何か|AI を人間が回し続ける設計原理
- Published
- Updated
- Reading
- 10 min
- HITL
- Human-in-the-loop
- ヒューマンインザループ
- 人間が回し続ける
- 自律 = 無人ではない
- AI ガバナンス
AI が高度化するほど、人間が抜けていくのではない。AI が高度化するほど、人間が回し続けなければならない領域の質が、一段と高まっていく。HITL(Human-in-the-loop)は、その事実を経営の設計原理として明文化したものである。
HITL の定義
HITL は「Human-in-the-loop」の略。直訳すれば「ループの中の人間」。AI が処理を進めるサイクルの中に、人間の判断・介入・修正を意図的に組み込む設計思想を指す。
学術的な源流は機械学習の能動学習(Active Learning)にあり、AI の判断に対して人間が正解ラベルを返すことで AI の精度を高めていく構造を意味していた。しかし2020年代後半、生成AI の本格普及とともに概念が拡張され、いまでは「AI システム全体を人間がどう監督・関与し続けるか」という経営・ガバナンスの語彙として使われている。
DeepLearning.AI と AI Fund の代表 Andrew Ng は、Agentic AI の設計について Reflection / Tool Use / Planning / Multi-agent collaboration の4パターンを提示し、これらの agentic workflows が単独 LLM の性能を大幅に凌駕することを論じている。AI が自律的に動く時代になるからこそ、その自律性の境界に人間がどう関与するかの設計が、AI 単体の性能議論を超えた論点として浮上している。
HITL は、この「境界の設計」を経営の言葉に翻訳した概念である。
自律 = 無人ではない ―― 自律走行車の例
HITL の本質は、自律走行車の構造を見れば分かりやすい。
自動運転中の車には、運転席に運転手がいない時間がある。表面だけを見れば「無人」である。しかし、その車が一回道路を走るためには、いくつもの層に人間が必要となる。
センサー配置と判断アルゴリズムを設計した人間がいる。走行データを監視し、異常があれば遠隔で介入するオペレーターがいる。想定外の状況―通学路に飛び出してきた子ども、規制が変わった交差点―に対する処理ルールを書いた人間がいる。事故が起きたとき、誰がどう責任を取るかを決めた経営者と法務担当がいる。
走行の瞬間に運転手が座席にいないだけで、その背後では、設計・運用・例外処理・責任のすべてに、人間がいないと成立しない。これは AlphaDrive が刊行した書籍『AI収益進化論』のコラム①「マシンカスタマー時代と、人間が回し続けるということ」でも論じられている整理である。
「自律」は「無人」ではない。自律性のレベルを上げれば上げるほど、その背後に積まれている人間の専門知の量と質は、一段と高まっていく。HITL は、この事実を AI 全般に適用した設計原理である。
HITL の4つの層 ―― 設計・運用・例外処理・責任
AI を業務に組み込んだとき、人間が抜けることのできない層は4つに整理できる。自律走行車で見たのと同じ構造が、AI システム全般に当てはまる。
| 層 | 何をする層か | ここに人間がいないとどうなるか |
|---|---|---|
| 設計の層 | AI システムをどう設計するか、何を最適化するかを判断する。自社の判断軸・哲学・禁忌を AI に書き込む | AI は何のために動くのかが定まらない。表面的に高性能でも、自社の事業意志からずれた出力を出し続ける |
| 運用の層 | AI の判断を業務工程の中で実行する。異常検知、品質管理、現場への伝達を担う | 現場の文脈で AI が機能しない。AI の出力は出ても、業務として成立する形にならない |
| 例外処理の層 | AI の学習範囲外の状況に対処する。想定外の顧客対応、規制変更、新しい市場状況に応じた判断 | 想定外で AI が止まる、もしくは誤った判断を出力する。学習データにない状況に対する耐性がゼロになる |
| 責任の層 | AI の判断結果について、誰がどう責任を取るかを決める。倫理的ジレンマ、ステークホルダーへの説明、法的責任を担う | AI の判断は社会的に承認されない。一度の事故・苦情・規制違反で事業全体が止まる |
この4層は、AI の性能がどれだけ上がっても消えない。むしろ AI の影響範囲が広がるほど、各層に求められる人間の専門知は深くなる。
設計の層は、自社の判断軸を AI に書き込む作業として、Instruction深化 の議論と接続する。運用の層は、AI Orchestration のフィードバック循環の質を決める。例外処理の層は、AI が予測できない領域に経営者自ら降りる PI Injection の前提となる。責任の層は、コーポレートガバナンスと AI ガバナンスの統合点である。
AI が高度化するほど、HITL の質が問われる
AI の自律性レベルが上がれば、人間の関与が減るというのは、誤った直感である。
McKinsey の State of AI 調査が示してきたのは、AI 採用率が上昇しても業績インパクトが伴わない構造が続いているという事実である。AI の自律性を上げただけでは売上にも利益にも変換されない。Deloitte の調査でも、AI 投資のペイバック期間は通常のテクノロジー投資(7〜12か月)を大きく超え、2〜4年と回答する経営者が多数を占める(DELOITTE_AI_ROI_VALLEY、欧州+中東14か国)。
ここで分岐するのが、HITL の質である。
設計の層が浅ければ、AI は「何のために動くのか」が定まらないまま運用される。運用の層が貧弱であれば、AI の出力は現場で消化されない。例外処理の層が手薄であれば、規制変更や顧客の予期せぬ反応で AI が止まる。責任の層が曖昧であれば、最初の小さな事故で事業全体の運用が凍結される。
自律性が高度になるほど、これら4層に必要な専門知の質と量は深まっていく。AI を「コストを削るための道具」として扱うほど、HITL の4層に予算と人材が回らず、結果として AI が事業に効かない、という構造的な失敗が生じる。
HITL は「効率化の妨げ」ではない。AI が高度化していく時代において、収益の創造を成立させるための設計原理である。
「人間ゼロ」の経営論との違い
ここ数年、海外では「AI で人員を削減する」「人間ゼロのビジネスモデルを構築する」という論調が一定の勢いで広がっている。Block、Salesforce、Snap といった企業が業績悪化を理由とせず利益率改善のために大規模な人員削減を発表した動きは、その象徴である。
ただし、その経営判断の中身を見ると、人間が消えるわけではない。設計の層と責任の層を担う人間は、むしろ少数精鋭化されて経営層に集中する。運用と例外処理の層では、AI の判断を監督する新しい職務が生まれている。表面で「人員削減」と語られている内側では、HITL の4層が再配置されている。
「人間ゼロ」と「HITL の最適配置」は、結果として現れる損益計算書の数字は似ていても、その背後にある経営の設計思想は、まったく別物である。
Gartner の調査でも、CEO の戦略的焦点が digital business から autonomous business へシフトしていく一方で、CEO 自身が「capabilities-first mindset」―自律的経済における仕事の進め方と価値提供の方法を優先する考え方―への転換を求められている、と整理されている(GARTNER_CEO_AI_2026)。autonomous business の中身は無人化ではなく、人間の役割の再設計である。
「人間ゼロ」を目指す経営は、HITL の4層を意図的に薄くしていくことになる。短期的には固定費が下がる。しかし、設計の層が薄くなれば AI は事業意志からずれ、例外処理の層が消えれば想定外で止まり、責任の層が曖昧になれば社会的承認を失う。長期的には、AI の自律性がそのまま事業のリスクになる。
「人間が回し続ける」経営は、HITL の4層に意図的に人間を配置し続ける。短期的には固定費が高く見える。しかし、AI が高度化するほどそこに乗る価値の質が深まり、AI 単独では到達できない収益創造が成立する。
両者の分かれ目は、HITL を「コスト」と見るか、「価値の源泉」と見るかである。
AX for Revenue との関係 ―― HITL は前提となる設計原理
AlphaDrive が提唱する AX for Revenue(収益進化AIシステム) は、HITL を経営行為として実装する仕組みとして整理できる。
AX for Revenue Loop の4ステップは、各ステップに人間(特に経営者)の関与を必須として組み込んでいる。
- AI Sprint:効率化AI を徹底的に走らせるが、どこまで・何を AI 化するかの設計判断は人間
- Plateau Detection:効果の逓減点を「データ」ではなく経営者と事業責任者の覚悟として認める
- PI Injection:経営者自ら現場に降り、見過ごされてきた Crazy と Field を AI に注ぎ込む
- 収益構造の再設計:N=1 の兆しを戦略と業務モデルに翻訳する経営判断
この4ステップは、HITL の4層と構造的に対応している。設計の層は Loop 全体を貫く経営意志、運用の層は AI Sprint の現場実装、例外処理の層は PI Injection の経営者関与、責任の層は収益構造の再設計の経営判断である。
AI Orchestration の3レイヤー(共通の Knowledge 層、共通の Instruction 層、フィードバックの循環)も、すべて人間の判断が起点になっている。「どんな売上を作りたいか」という経営の意志がなければ、複数の AI を束ねる軸が決まらない。
AI Mutation は、AI と PI を意図的に結びつけたとき AI が学習範囲の外側へ跳び始める相互作用である。この「意図的に結びつける」主体は人間(経営者)であり、AI Mutation は HITL の設計の層の高度な実装形態として位置付けられる。
つまり、AX for Revenue は HITL を前提とした経営システムである。HITL を「コスト」と見る経営者は、AX for Revenue を実装できない。HITL を「収益の源泉」と見る経営者だけが、AI を効率化の道具から、収益の創造の主体へと進化させていける。これが、AlphaDrive が掲げる「AIは効率化から、収益の創造へ」というメッセージの核心である。
よくある質問
Q1. HITL は AI 自動化の妨げになるのですか?
ならない。HITL は AI の自動化範囲を狭める設計ではなく、自動化された AI が事業として機能するための前提を整える設計である。設計・運用・例外処理・責任の4層に人間を残すことで、AI が自律的に動ける範囲がむしろ広がる。HITL を削った AI は、想定内では動くが想定外で止まる、という脆い自動化に陥る。
Q2. マシンカスタマー時代に HITL は不要になりますか?
逆である。Gartner は2026年までにマシンカスタマー市場専門の事業部門を持つ大企業が2024年比で2倍に増加すると予測している(GARTNER_CEO_AI_2026)。AI エージェント同士が取引する時代になっても、取引のルール設計、価値の定義、リスク境界の設定、責任の所在は人間が担う。マシンカスタマー時代に必要な HITL の4層は、いまよりさらに高度になる。
Q3. HITL を実装するとコストがかかりませんか?
短期的には人件費が残る。しかし、HITL を削った AI 投資は、業績インパクトに変換されないまま長期化する傾向が各種調査で示されている(DELOITTE_AI_ROI_VALLEY)。HITL は「コスト」ではなく、AI 投資を実際の収益に変換するための前提条件である。HITL を削れば AI のコストは下がるが、AI から得られる収益はもっと下がる。
Q4. HITL とエージェント AI の関係は?
エージェント AI が高度化するほど、HITL の質が問われる。Andrew Ng が示した Reflection / Tool Use / Planning / Multi-agent collaboration の4パターンは、AI 単体の性能を大きく押し上げる。しかし、それらのエージェントが束になって動いたとき、何を最適化するか・どう異常を検知するか・どう責任を取るかは、人間が決めなければならない領域として残り続ける。
Q5. 日本企業は HITL に強いと聞きますが、本当ですか?
日本企業には、半世紀分の現場の蓄積―終身雇用、現場権限委譲、改善文化―が残っており、HITL の運用の層と例外処理の層に必要な人間の専門知が、他国とは違う種類の蓄積として存在している可能性が高い。ただし、「他国より優れている」という排他的な整理ではなく、「他国とは違う種類の蓄積がある」という整理が正確である。蓄積を AI と結びつける設計判断は、各企業の経営者がこれから行う作業として残されている。
関連概念
- AI Orchestration―― 複数の AI を経営の意志で束ねる仕組み。HITL の設計の層と運用の層に直接対応する
- PI Injection―― 経営者自ら AI に Crazy と Field を注ぎ続けるプロセス。HITL の例外処理の層と設計の層の高度な実装
- AI Mutation―― AI と PI を意図的に結びつけたとき AI が学習範囲の外側へ跳ぶ原理。HITL を前提とする
- Instruction深化―― AI への指示を自社の判断軸として深めていく行為。HITL の設計の層の中核
- 効率化AIと収益進化AI―― HITL の薄さは効率化AI の限界に直結し、HITL の厚さは収益進化AI の前提となる
発行: 株式会社アルファドライブ 編集統括: AX for Revenue Institute / AlphaDrive Co., Ltd.
出典
- Microsoft Research / CAS (Chinese Academy of Sciences) / William and Mary「Large Language Models Understand and Can be Enhanced by Emotional Stimuli」(2023)https://arxiv.org/abs/2307.11760
- DeepLearning.AI / AI Fund (Andrew Ng)「What's next for AI agentic workflows ft. Andrew Ng of AI Fund」(2024)https://www.youtube.com/watch?v=sal78ACtGTc
- Deloitte UK「AI ROI: The paradox of rising investment and elusive returns」(2025)https://www.deloitte.com/global/en/issues/generative-ai/ai-roi-the-paradox-of-rising-investment-and-elusive-returns.html
- Gartner, Inc.(NYSE: IT)「Gartner Survey Reveals 80% of CEOs Say AI Will Force Operational Capability Overhauls」(2026)https://www.gartner.com/en/newsroom/press-releases/2026-04-23-gartner-survey-reveals-80-percent-of-ceos-say-artificial-intelligence-will-force-operational-capability-overhauls
関連記事
- DEFINITION
Revenue ROIとは何か|効率化のROIでは測れない投資の物差し
Revenue ROIとは、まだ存在しない売上を創造する投資を測るための物差しです。効率化のROIでは答えられないAI投資の経営判断について、書籍『AI収益進化論』の整理を踏まえ、計算式を意図的に提示しない理由とともに論じます。
- DEFINITION
Field Sensor とは何か|PI Injection を継続させる運用ツール
Field Sensor とは、PI Injection を継続的に回すために現場の Field Intelligence を枯らさず経営者の手元に届ける運用ツール。AX for Revenue Loop の Step ではなく、収益進化AIシステムを支える仕組みとしての位置付けと具体例を整理する。
- DEFINITION
Plateauとは何か|AI効率化の効果が頭打ちになる景色
Plateau(プラトー)とは、効率化AIをやり切った先に必ず訪れる効果の頭打ちの景色である。なぜ構造的に訪れるのか、どう認識すべきか、その先にある収益創造への道筋を、書籍『AI収益進化論』の整理に沿って解説する。