AI Workability Leveling

AIが働きやすい組織環境の5段階
How easy is it for AI to actually do work in your organization?

Written by Yeesy — GUILD42 座長

経営者の仕事が変わった

経営者の仕事は「社員が働きがいを持って、働きやすい環境を構築すること」だと、よく言われる。組織戦略の基本であり、人事戦略はその中核に位置する。優れた経営者は、優れた環境を作ることで、優れた成果を引き出す。

この原則は変わらない。ただし、「社員」の定義が変わった

McKinsey は「The Future of Work is Agentic」において、AIエージェントが新しいクラスの「ワーカー」として組織に参加する未来を描いている。SHRM(米国人材マネジメント協会)の調査では、2025年末までに企業の25%がAgentic AIをタスク遂行に活用し、2027年には50%に達すると予測している。「デジタルワーカー」が2025年時点で組織の中核的な貢献者となる企業は30%に上る。

MicrosoftのSatya Nadella CEOは、AIエージェントを「Chief of Staff(首席補佐官)」と表現し、製品設計の基盤を「per user(ユーザー単位)」から「per agent(エージェント単位)」へ転換すると宣言した。IT部門が「AI版HR」として機能する新しいモデル——Agent 365がその実装だ。

つまり、経営者がこれから構築すべき「働きやすい環境」には、AIが働きやすい環境が含まれる。そしてこの視点の有無が、AI時代の経営成果を決定的に分ける。


なぜ「AIが働きやすい環境」が必要なのか

現実: AI投資の大半は成果を出していない

数字は残酷だ。

0%
AI投資から十分な価値を
引き出せていない企業
BCG 2024
0%
AIイニシアティブを
本番到達前に放棄した企業
S&P Global
0%
AIによる生産性への
影響を「なし」と回答
Fortune / NBER

1987年にノーベル経済学者Robert Solowが「コンピューターの時代はどこにでも見えるが、生産性統計の中だけには見えない」と述べたソロー・パラドックスが、AIで再現されている。

Analytics dashboard showing performance metrics and data visualizations on a laptop screen
Photo by Luke Chesser on Unsplash

原因: ワークフローの再設計をしていない

では、成果を出している少数派は何が違うのか。

McKinseyの2025年AI状況調査が明確な答えを出している: AI高業績企業は、ワークフローの根本的再設計を実施している比率が、他社の2.8倍(55% vs 20%)。25の属性を検証した中で、EBIT(営業利益)への影響が最も大きかったのが、この「ワークフロー再設計」だった。

これは「既存のワークフローにAIツールを追加する」ことではない。ワークフロー自体を、AIが参加する前提で再構築することだ。

問いの転換が必要

大半のAIトランスフォーメーション支援は、こう問いかける:

従来の問い
「今の業務プロセスのどこをAIで効率化できますか?」
既存プロセスを前提に、AIを「後付け」する発想。
  • 人間の仕事を前提に、AIが補助
  • 現状の「ステップ」をAIで削減
  • 改善幅は既存構造に制約される
正しい問い
優秀なAIエンジニアがこの業務を設計するなら、どのようにAIエージェントを構成し、どこだけを人間に確認してもらうか?」
AIが主役として動く前提で業務を再設計する発想。
  • AIエージェントが主体的に動く
  • 人間は「承認・判断」にのみ登場
  • 構造ごと再設計するため効果が桁違い

前者は、人間のワークフローを前提とし、AIを補助として差し込む。後者は、AIのワークフローを前提とし、人間が必要な箇所だけを定義する。

BCGは「AI-first operating model」の必要性を強調し、「CEOはツールの導入を超えて、仕事の本質そのものを再構想しなければならない」と述べている。既存プロセスにAIを載せるだけでは足りない。プロセス自体を、AIが主体として動ける形に再設計する必要がある。


「AIが補助する」のではなく「人間がAIを補助する」

この考え方の転換は、極端に聞こえるかもしれない。しかし現実を見れば、すでにそうなりつつある。

ナレッジワーカーの役割は、AIを教え、評価し、使いこなす——いわばAIに対するHRのような存在になる。SHRMの研究は、先進的なリーダーがAIを「新しい採用者」のように組織に統合していると報告している——カルチャーフィット、ブランドとの整合性、明確な役割定義を検討した上で導入する。

もちろん、AIが業務の90%を担える業界もあれば、30%程度の業界もある。業務特性や規制環境によって異なる。しかし、どんな業界でもAIが30%以上の業務を担える余地がある。それでも「AIを導入しても生産性が上がらない」というのであれば、それはAIの限界ではなく、経営者がAIにとって働きやすい環境を構築できていないということだ。

人間が仕事をしやすい環境を整えるのが経営者の責務であったように、これからはAIが仕事をしやすい環境を整えることも同等の経営責務になる。そして重要なのは、この2つは二律背反ではないということだ。AIが働きやすい環境——構造化されたデータ、明確な定義、プログラマティックなインターフェース——は、実は人間にとっても透明性が高く、再現性のある環境でもある。


AI Workability Leveling: 5つのレベル

ここからが本題だ。

AI成熟度モデルは数多く存在する。GartnerMIT CISRMITRE。しかし、これらは全て人間がAIをどう使うかを測っている。

本当に測るべきは「AIがあなたの組織でどれだけ働きやすいか」だ。

自動運転のレベル(SAE L1-L5)が「車がどれだけ自分で運転できるか」を定義したように、このフレームワークはAIが組織内でどれだけ自分で仕事できるかを定義する。評価軸は2つ:

Data

AIが読めるデータ形式と構造
md, json, csv, yaml / ローカルフォルダ管理

UI / Execution

AIが実行できるインターフェース
CLI, API / Agent Runtime

L1
The Locked Room
外部業務委託(1:1)
L2
The Duct Tape Bridge
連携できる業務委託群(1:n)
L3
Context-Ready Workspace
優秀なインターン(指示待ち)
L4
Autonomous Workflow
優秀な正社員(ホウレンソウ)
L5
The Ontology Layer
部長クラス(戦略参謀)

L1
The Locked Room
人間のためだけに設計された世界。AIは部屋の外にいる

内部事情を何も知らない外部の業務委託。社員1人が、1人のAIに都度説明しながら作業を依頼する(1:1)。毎回「うちの会社はこうで、このプロジェクトはこうで…」と説明し直す。社内システムへのアクセス権はない。

graph LR subgraph 組織["組織(Locked Room)"] SaaS["SaaS / Excel / PDF"] 社員A["社員A"] 社員B["社員B"] 社員A --> SaaS 社員B --> SaaS end subgraph 外部["組織の外"] AI["ChatGPT / Claude"] end 社員A -- "コピペ" --> AI AI -- "回答" --> 社員A 社員B -- "コピペ" --> AI AI -- "回答" --> 社員B style AI fill:#f9f,stroke:#333 style SaaS fill:#bbf,stroke:#333

大半の組織がここにいる。業務は人間向けUIの中で完結している。データはExcelファイル、PDF、プロプライエタリなSaaSの画面の中に閉じ込められている。

一部の個人がChatGPTやClaudeを使い始めている。しかしそれは「AIに聞いてコピペする」レベルであり、組織のシステムとは完全に断絶している。AIはメールの下書きを書いたり、要約したりできるが、業務システムには指一本触れられない

個人のAI FluencyはLevel 1-2(Casual Consumer〜Prompt Coder)。組織としてはAIの話題は出るが、戦略はない。Gartner AI MaturityのLevel 1: Awarenessに相当する。

特徴

  • 業務データがExcel、PDF、SaaS画面内に閉じている
  • APIもCLIも存在しない、またはアクセスが封じられている
  • 個人がChatGPT/Claudeを「便利ツール」として使う
  • AIと業務システムの間に接点がゼロ
  • IT部門はAI利用を黙認または禁止

よくある風景

社員がSlackのスレッドをコピーしてChatGPTに貼り付け、要約を手動で議事録に転記する。Salesforceのデータを手動でExportし、ChatGPTに分析させて、結果をまたSalesforceに手打ちする。

課題

AIの能力はユーザーの個人スキルに完全に依存する。組織としてのAI活用はゼロ。10人がChatGPTを使っていても、10個のバラバラな使い方が存在するだけだ。Fortune誌が報じた調査によれば、経営層のAI利用は平均で週1.5時間に過ぎない。これでは組織的な生産性向上は起こりえない。

L2
The Duct Tape Bridge
人間用アプリにMCP・RPAで無理やりAI接続。動くが脆い

業務委託同士が連絡を取り合えるようになった状態。社員1人が複数のAIツールを使い分ける(1:n)。Slack MCP、Drive MCP、それぞれのAIが別々のシステムに繋がるが、AI同士は連携していない。通訳を介して外国人スタッフと仕事をしているような状態——伝わるが、もどかしい。

graph LR subgraph 組織["組織"] 社員["社員"] Slack["Slack"] Drive["Google Drive"] CRM["CRM"] end subgraph AI層["AI(アダプター経由)"] AI_Chat["Claude Desktop"] MCP_S["Slack MCP"] MCP_D["Drive MCP"] MCP_C["CRM MCP"] end 社員 --> AI_Chat AI_Chat --> MCP_S --> Slack AI_Chat --> MCP_D --> Drive AI_Chat --> MCP_C --> CRM style AI_Chat fill:#f9f,stroke:#333 style MCP_S fill:#fbb,stroke:#333 style MCP_D fill:#fbb,stroke:#333 style MCP_C fill:#fbb,stroke:#333

組織がAI活用を本格化しようとする最初の段階。しかし既存の人間向けアプリケーションはそのまま。MCP (Model Context Protocol)やRPA、ブラウザ自動化で、AIが人間用アプリにアクセスする「橋」を後付けする。

Anthropicが2024年にMCPを発表して以来、数万のコミュニティMCPサーバーが構築された。Slack MCP、Google Drive MCP、Salesforce MCP。これらはすべて人間向けに設計されたアプリを、AIが操作できるようにするアダプターだ。

動く。しかし脆い。UIが変われば壊れる。認証が切れれば止まる。画面の構造が前提のデータ取得は、本来のAPI呼び出しとは品質が違う。

ここで多くの組織が「AIは使えない」と判断する。S&P Globalのデータによれば、42%の企業がAIイニシアティブを本番到達前に放棄している。しかし問題はAIではなく、AIにとって働きにくい環境のまま使おうとしていることだ。

特徴

  • 人間用SaaSアプリ + MCP/RPA/ブラウザ自動化の後付け
  • データは取得可能だが、構造がアプリ依存でバラバラ
  • AI連携は「動くが壊れやすい」
  • 一部の自動化ワークフロー(Zapier、Make、n8n)が稼働
  • 個人のAI FluencyがLevel 2-3(Prompt Coder〜Context Developer)

よくある風景

Claude DesktopにSlack MCPとGoogle Drive MCPを接続し、「先週のチャンネルの要約をDocにまとめて」と指示する。動くが、チャンネルの権限変更で突然エラーになる。MCPサーバーの設定ファイルをメンテできる人が1人しかいない。

なぜここで止まるのか

人間の環境をそのままにして、AIを「人間の代わりに画面操作するもの」として使おうとしている。これは本質的に自動化ではなく、模倣だ。Madrona が定義するAgent InfrastructureのTools Layerだけが存在し、Data LayerとOrchestration Layerが欠けている。橋はあるが、道路も信号もない。

ここでMcKinseyのデータを思い出してほしい。ワークフローを根本的に再設計した企業は、そうでない企業の2.8倍のEBIT効果を得ている。Level 2は、ワークフローを再設計せずにAIを載せようとしている状態だ。

L3
The Context-Ready Workspace
AIが読めるデータ。AIが叩けるCLI。人間とAIがリアルタイムで協働する

社員として迎え入れた優秀なインターン。社内のデータに直接アクセスでき、ルールも読める。ただし指示待ち——言われたことは高速にこなすが、自分からは動かない。人間が横について、リアルタイムで指示を出し、成果物をレビューする。

graph LR subgraph 共有環境["共有ワークスペース"] Data["構造化データ\n(md / json / yaml)"] CLI["CLI / API"] Context["CLAUDE.md\nコンテキスト"] end 社員["社員"] <-- "リアルタイム\n指示・レビュー" --> AI["AI"] AI --> Data AI --> CLI AI --> Context 社員 --> Data 社員 --> CLI style AI fill:#f9f,stroke:#333 style Data fill:#bfb,stroke:#333 style Context fill:#bfb,stroke:#333

ここが最も重要な転換点だ。「AIにデータを渡す」から「AIが自分でデータを読み、自分で操作を実行できる環境を構築する」へ発想が根本的に変わる。

Data: AIが読めるデータ形式と構造

データをAIが読みやすい形式で管理する。Markdown、JSON、CSV、YAML。ローカルフォルダに置き、AIがファイルシステム経由で直接アクセスする。

CLAUDE.mdのようなコンテキストファイルが各プロジェクトに存在し、AIは作業開始時に「このプロジェクトは何で、どういうルールがあるか」を自分で読み取れる。データの構造や命名規則が一貫しており、AIが迷わない。

The Agentic WebというDEV Communityの記事が指摘するように、AIエージェントが効果的に機能するためには、データが機械可読であることが前提条件となる。RDFやOWLのような高度なセマンティック技術がなくても、MarkdownやJSON、YAMLで構造化してローカルフォルダに置くだけで、AIのデータアクセス品質は劇的に向上する。

Code displayed on a computer monitor showing programming in a developer workspace
Photo by Ilya Pavlov on Unsplash

UI: AIが実行できるインターフェース

Google Workspace CLI、GitHub CLI、TerraformのようなAPI-first / CLI-firstのツールで業務を構成する。UIは人間用のフロントエンドに過ぎず、データとアクションはすべてCLI/API経由でアクセス可能。

Gartnerの予測では、2026年に企業アプリの40%がタスク特化型AIエージェントを統合する(2025年は5%未満)。API-nativeなスタックを選定できている組織は、AIエージェント統合のコストが桁違いに低い。

協働: Human + AI Real-time

このレベルでの典型的な作業フローは、人間がAIを呼び出し、リアルタイムで会話しながら成果物をレビューする。AIが書いたコードを人間が横で見ながら修正指示を出す。AIが生成したレポートを人間がその場で確認し、方向性を調整する。

特徴

  • データがAI可読形式(md, json, csv, yaml)でローカル管理されている
  • CLAUDE.mdなどのコンテキストファイルが整備されている
  • CLI/APIベースのツールスタックが選定されている
  • 人間がAIを呼び出し、リアルタイムで協働・レビューする
  • 組織全体がContext Managementを理解している

よくある風景

エンジニアが claude を起動し、CLAUDE.mdを読んだAIに「このissueを解決して」と指示する。AIがコードを書き、テストを走らせ、人間がdiffをレビューして承認する。ドキュメントはMarkdownでGit管理され、AIが直接読み書きできる。議事録はJSON構造で保存され、AIが横断検索できる。

Level 2との決定的な違い

Level 2は「人間用アプリにアダプターを噛ませる」。Level 3は「AIが直接読み書き・実行できる環境を構築する」。この違いが、McKinseyが指摘する「ワークフロー再設計」の実態だ。

L4
The Autonomous Workflow
AIが定められたワークフローを自律的に実行する。必要な時だけ人間に判断を仰ぐ

優秀な正社員。業務を自律的にこなし、適切な報連相(ホウレンソウ)ができる。問題なく処理できる案件は自分で完結させ、判断に迷う案件だけを上司にエスカレーションする。「出社したらもう仕事が終わっている」タイプの部下。

graph TB subgraph Agent群["AI Agent群(自律稼働)"] Monitor["Monitoring\nAgent"] Analysis["Analysis\nAgent"] Dev["Dev\nAgent"] Report["Reporting\nAgent"] Monitor --> Analysis Analysis --> Dev Analysis --> Report end subgraph データ["構造化データ / CLI / API"] DB["DB / API"] Log["ログ / メトリクス"] Code["コードベース"] end Monitor --> Log Dev --> Code Report --> DB Analysis -- "確信度低:\nエスカレーション" --> 社員["社員\n(承認・例外処理)"] Dev -- "PR提出\nレビュー依頼" --> 社員 style 社員 fill:#bbf,stroke:#333 style Monitor fill:#f9f,stroke:#333 style Analysis fill:#f9f,stroke:#333 style Dev fill:#f9f,stroke:#333 style Report fill:#f9f,stroke:#333

Level 3まではAIは「呼ばれたら動く」。Level 4ではAIが自分で起動し、定められたワークフローに従って処理を完遂する

決まったワークフロー——デプロイ、テスト実行、定期レポート生成、異常検知——においてAIが正確に自律実行する。基本的に自分で判断して起動し、例外や判断に迷うケースでのみ、AIの判断でhuman-in-the-loopに入る。人間が「AIを呼ぶ」のではなく、AIが必要な時に人間を呼ぶ

Knight InstituteのAI Autonomy LevelでいうL3-L4。人間の役割がOperator(操作者)からSupervisor(監督者)、さらにApprover(承認者)へ移行する。

Dextralabsが定義するL3-L4: Orchestration & ComplianceからAutonomous Ecosystemへ。ガバナンスとaudit trailが整備され、AIの行動が追跡可能な状態で自律運用する。

ここで先ほどの問いの転換が現実になる。「人間のワークフローのどこをAIで効率化するか」ではなく、「AIエンジニアならこの業務をどう自動化するか」を起点に設計されたワークフローが稼働している状態だ。

特徴

  • Agent Runtime(LangGraph、CrewAI、Claude Agent SDK等)が本番稼働
  • 定期実行・イベント駆動でAgentが自律起動
  • Agent Team(複数Agentの協働)が定められた業務プロセスを遂行
  • AIが自律的にhuman-in-the-loopの要否を判断する
  • 監視・ログ・audit trailが整備されている
  • 人間は監督・承認・例外処理に集中

よくある風景

毎朝5時にMonitoring Agentがシステムメトリクスを分析し、異常を検知するとAnalysis Agentに渡す。Analysis Agentが根本原因を推定し、過去の類似ケースと照合する。確信度が高ければDev Agentが修正パッチを生成しPRを提出。確信度が低ければ、Slackで人間のエンジニアに状況レポートと選択肢を提示し、判断を仰ぐ。人間が出社する頃には、自動修正済みのPRが3件と、判断待ちのレポートが1件届いている。

なぜLevel 3なしにLevel 4は不可能か

Level 3の「AIが読めるデータ」「AIが叩けるCLI」「コンテキスト管理」がなければ、Level 4のAgentは何もできない。Level 2のDuct Tape環境でAgentを動かすと、MCPの認証切れで深夜3時に止まり、誰にも通知されない。

BCGの調査で74%がAI投資から価値を引き出せていない最大の理由がここにある。Level 2の環境のままLevel 4の成果を求めている。基盤なきAgent化は、砂上の楼閣だ。

Level 3との決定的な違い

Level 3
人間がAIを呼び出し、リアルタイムで協働する(人間起点
Level 4
AIが自律的に起動し、必要な時だけ人間を呼ぶ(AI起点
L5
The Ontology Layer
AIが人間の判断と選択をGuideする。実質的にAIが意思決定を主導する

部長クラスの戦略参謀。全部門のデータを横断的に把握し、経営層に対して「何を判断すべきか」「どう判断すべきか」を構成して提示する。人間には処理しきれない規模と複雑性のデータを統合し、意思決定の枠組み自体を設計する。経営判断の主導権は、実質的にこのAIが握っている。

graph TB subgraph Ontology["Ontology(意味・関係性の統合層)"] KG["Knowledge Graph"] Semantic["セマンティック定義"] Lineage["データリネージ"] end subgraph データソース["全社データソース"] HR["HR\n在籍・スキル・評価"] Finance["Finance\n予算・コスト・CF"] Product["Product\n進捗・リソース"] Market["Market\n競合・トレンド"] CS["CS\nチケット・NPS"] end HR --> Ontology Finance --> Ontology Product --> Ontology Market --> Ontology CS --> Ontology subgraph AI判断["AI(戦略参謀)"] Detect["問題検知"] Analyze["横断分析"] Recommend["シナリオ構成\n+ 推奨提示"] end Ontology --> Detect --> Analyze --> Recommend Recommend -- "判断フレーム\n+ 推奨アクション" --> CEO["経営層\n(承認)"] style CEO fill:#bbf,stroke:#333 style Ontology fill:#bfb,stroke:#333 style Detect fill:#f9f,stroke:#333 style Analyze fill:#f9f,stroke:#333 style Recommend fill:#f9f,stroke:#333

Level 4のAIは、人間にもできる仕事を、人間より速く、正確に、24時間休まずにこなす。定められたワークフローの中で、人間が判断できるレベルのタスクを卒なく自律実行する。優秀な作業者だ。

Level 5は質的に異なる。人間にはもはや判断できないレベルの複雑性と規模のデータを扱い、人間をGuideする

数十のデータソース、数百万のレコード、数千の変数間の相関。部門を横断する因果関係。時系列で変化するパターン。人間の認知能力では、これらを同時に把握し、正しい判断を下すことは物理的に不可能だ。Level 5のAIは、Ontologyを通じてこの複雑性を理解し、人間が判断可能な形に構造化して提示する。AIがデータの意味を理解し、選択肢を構成し、判断材料を提示し、人間の意思決定をGuideする。人間は最終的にYes/Noを言うが、何をYes/Noするかを決めているのはAIだ。

Data center with illuminated network connections representing complex data infrastructure
Photo by Jordan Harrison on Unsplash

「売上」というカラムが「税込月次売上(JPY)」なのか「税抜年間売上(USD)」なのか。「顧客」と「案件」と「サポートチケット」がどう紐づくのか。Knowledge Graphとセマンティックレイヤーが、データの意味と関係性をAIにとって機械可読にする。

Palantir Ontologyはこの段階の最も先進的な実装だ。Data(情報)・Logic(評価プロセス)・Action(実行)を統合し、AIが実際のビジネスオブジェクトに対してアクションを提案できる。組織のデジタルツインとして機能し、AIと人間が同じモデルを共有する。

Gartnerは2025年、セマンティック技術がAI・メタデータ・意思決定インテリジェンスの中心に来ると予測している。Knowledge Graphの構築は2024-2025年に本番運用レベルに到達し、300-320%のROIを達成した企業が出ている。

AIが人間をGuideするとはどういうことか

Level 4
人間が「月次レポートを作って」→ AIが作る
Level 5
AIが「売上が前月比12%下落しています。原因は3つ考えられます。推奨アクションはAです。承認しますか?」

人間が問いを立てるのではない。AIが問いを立て、分析し、選択肢を構成し、推奨を提示する。人間はAIが構成した判断フレームの中で意思決定する。経営判断、リソース配分、リスク評価——AIがOntologyから全データを横断的に結合し、人間には見えないパターンを可視化し、「こう判断すべきだ」と提示する。

これは「AIが便利なレポートを出す」とは本質的に違う。AIが組織の意思決定構造そのものに組み込まれている

特徴

  • データカタログ・スキーマにビジネス上の意味が定義されている(Ontology)
  • エンティティ間の関係性が機械可読(Knowledge Graph、RDF、OWL等)
  • データの鮮度・品質・出所(lineage)がメタデータとして追跡可能
  • AIが能動的に問題を検知し、分析し、選択肢と推奨を人間に提示する
  • 人間の意思決定をAIがGuideする——何を判断すべきか、どう判断すべきかをAIが構成する

よくある風景

月曜朝、CEOのダッシュボードにAIからの3件のブリーフィングが届いている:

1. 「先週の解約率が前週比8%上昇。主因はオンボーディング完了率の低下(62%→48%)。CS AgentがチケットデータとNPSを分析した結果、UIリニューアル後の導線変更が原因と推定。推奨: オンボーディングフローをロールバックし、段階的にリリース。承認しますか?

2. 「競合X社が新機能をリリース。Market AgentとProduct Agentの分析では、当社ロードマップの優先度変更を推奨。3つのシナリオを提示: A(対抗開発), B(差別化強化), C(静観)。推奨はB。根拠はこちら。

3. 「来月のキャッシュフロー予測にリスクあり。請求サイクルと人件費の重なりにより、一時的に安全マージンが15%を下回る。推奨: 請求タイミングの前倒し交渉をFinance Agentが実行。承認しますか?

CEOは分析をやっていない。AIが分析し、構成し、推奨した。CEOは判断する——しかし、判断の枠組み自体をAIが作っている

Level 4との決定的な違い

Level 4
AIは定められたワークフローを正確に自律実行する。人間が「何をするか」を決める
Level 5
AIが何をすべきかを判断し、人間に提示する。人間は承認する

Summary

Lv Name AIを何に例えるか Data UI / Execution AIの動き方 人間の役割
1 The Locked Room 外部業務委託(1:1) 閉じている(Excel, PDF, SaaS画面内) 人間用GUIのみ 組織外で個人利用 全作業を実行
2 The Duct Tape Bridge 連携できる業務委託群(1:n) MCP/RPAで取得可能だが散在 アダプター経由で間接操作 人間用アプリを模倣操作 作業者 + AI設定者
3 The Context-Ready Workspace 優秀なインターン(指示待ち) AI可読形式(md, json, yaml) CLI / API-first 人間とリアルタイム協働 指示者・レビュワー
4 The Autonomous Workflow 優秀な正社員(ホウレンソウ) 構造化 + コンテキスト管理 Agent Runtime自律実行 定められたWFを自律実行 監督者・承認者
5 The Ontology Layer 部長クラス(戦略参謀) セマンティック・関係性・意味定義 AI判断でWF構成 人間の意思決定をGuide 承認者(判断枠組みはAI)

The Critical Threshold: Level 2 → Level 3

Level 1-2 人間の環境にAIを合わせる AIは模倣しかできない
74%が価値を出せない
Level 3+ AIの環境を構築する AIが本来の能力を発揮する
2.8倍のEBIT効果

Level 2からLevel 3への移行が、このフレームワーク全体で最も重要なステップだ。

ここで必要なのは、高度な技術でもAIの最新モデルでもない。データ形式の選択ツールスタックの選定だ:

  • ドキュメントをMarkdownで書く(Wordではなく)
  • 設定をYAMLで管理する(GUIの設定画面ではなく)
  • データをJSONで受け渡す(コピペではなく)
  • ファイルをローカルフォルダで管理する(クラウドUIだけではなく)
  • CLIがあるツールを選ぶ(GUIしかないツールではなく)

これらは技術的に難しいことではない。しかし、組織の意思決定として実行するのは簡単ではない。「なぜWordじゃなくてMarkdownなのか」「なぜSlack UIで十分なのにCLIが必要なのか」を説明し、納得させる必要がある。

答えは単純だ: AIが働けるようにするため。そしてAIが働ける環境は、実は人間にとっても透明で再現性が高い。


おわりに: 経営の問いを変える

もう一度、冒頭の問いに戻る。

経営者の仕事は「社員が働きがいを持って、働きやすい環境を構築すること」。これは変わらない。変わったのは、「社員」にAIが含まれるということだ。

AIがちょっとサポートする会社——この記事でいうLevel 3まで——は、既存のAIコンサル支援でも頑張ればたどり着ける。しかし、AI自律型企業(Level 4以上)を構築するためには、問いを根本から変えなければならない。

「今の業務プロセスのどこをAIで効率化できるか」ではなく、「AIエンジニアならこの業務をどう自動化し、どこだけを人間に確認してもらうか」

この問いの転換ができない限り、組織はLevel 2のDuct Tapeの中で、AIの可能性を浪費し続けることになる。

ほとんどの組織はLevel 1-2にいる。Level 3に到達している組織は少数派だ。Level 5は2026年時点ではごく一部の先端企業のみ。しかし、Level 2→3の壁を意識して超えられるかどうかが、次の5年の競争力を決める。

References

AI Workability Leveling v3