なぜAIで生産性があがっていると錯覚してしまうのか

広木 大地(株式会社レクター 代表取締役)

自己紹介

広木 大地

株式会社レクター代表取締役

1983年生まれ。筑波大学大学院を卒業後、2008年に新卒第1期として株式会社ミクシィに入社。アーキテクトとして、技術戦略から組織構築などに携わる。同社メディア開発部長、開発部部長、サービス本部長執行役員を務めた後、2015年退社。現在は、株式会社レクターを創業し、技術と経営をつなぐ技術組織のアドバイザリーとして、多数の会社の経営支援を行っている。一般社団法人日本CTO協会理事、朝日新聞社社外CTO。

新刊のご紹介

AIエージェント 人類と協働する機械

AIエージェント 人類と協働する機械

  • AIによって仕事は奪われるのか
  • AI時代の生産性はどう考えたら良いのか
  • AI時代に何をつくることが価値になるのか

本書では、この3つの問いに対して、経済学・認知科学・組織論の知見を横断しながら、AIエージェントとの協働がもたらす仕事の本質的な変化を読み解いていきます。

私たちは「生産性が上がった」と錯覚している

期待と現実のギャップ

AIコーディングで10倍速くなると思ったのに

期待

  • AIエージェントで10倍以上の生産性
  • 複雑なタスクも自動化
  • コーディング時間の大幅削減

現実

  • 2〜3倍程度で頭打ち
  • 場合によっては遅くなることすら
  • 「AI疲れ」という新たな問題

体感と価値のギャップ

体感の速さは、そのまま価値の増加を意味しない

体感

体感

「作業が速くなった」

  • コード生成が一瞬
  • 調査が数分で終わる
  • ドキュメントがすぐ書ける
価値

価値

最終成果でしか確定しない

  • 機能は増えたか
  • プロダクトは増えたか
  • 顧客価値は向上したか
  • 売上・利益は改善したか

チャットで指示して、
その結果を眺めているだけでは
生産性は上がらない

この体感と現実の不一致はなぜ起こるのか

3つの構造的な理由がある

理由①

本質的複雑性が残る

一部が10倍早くなっても全体は10倍にならない

理由②

生産性が消える

次の一手が設計されていない

理由③

競争は相対優位

周りも同じ速度で上がっている

理由① 本質的複雑性

なぜ10倍にならないのか

ソフトウェア開発で最も難しいこと

「銀の弾丸などない」— Fred Brooks, 1986

本質的複雑性

  • 問題領域そのものの複雑さ
  • 人間の要求の曖昧さ
  • 技術では解決できない
  • AIでも高速化困難

偶有的複雑性

  • 実装に伴う技術的複雑さ
  • バグやパフォーマンス問題
  • 技術で削減可能
  • AIが得意・大幅に高速化

本質的複雑性の四騎士

ソフトウェアが本質的に抱える困難

複雑性 Complexity

ソフトウェアは同じ部品の繰り返しではなく、要素が増えるほど相互作用が非線形に増大する。規模の拡大が本質的に複雑さを増す

同調性 Conformity

既存システムや制度、人間の慣習に合わせる必要があり、その複雑さは再設計では除去できない。恣意的な制約への適合を強いられる

可変性 Changeability

ソフトウェアは常に変更圧力にさらされる。機能こそが変化の圧力を最も受ける部分であり、成功するほど変更要求は増え続ける

不可視性 Invisibility

ソフトウェアは目に見えず図示もできない。物理的構造物と異なり、構造や関係性を直感的に把握する手段がない

アムダールの法則

並列化できない部分が全体を支配する

並列化できない部分が全体を支配する

並列化できる(AI)

  • 実装・コーディング
  • 単体テスト生成
  • ドキュメント作成
  • 環境構築

並列化できない(人間)

  • 顧客の課題の特定
  • 設計判断
  • 要件定義 *
  • レビュー・承認 *

* AIで代替可能になりつつある

アムダールの法則

10倍速くしても、全体は10倍にならない

シリアル部分が上限を決める

本質的30%の場合

偶有的を10倍にしても
全体は約2.7倍

本質的50%の場合

偶有的を10倍にしても
全体は約1.8倍程度に収まる

多くの企業が2-3倍で止まる理由は本質的複雑性が30-50%を占めているから

AI疲れ - AI Fatigue

  • AIは仕事の密度を上げる。それは意思決定と不確実性への対峙。
  • 意思決定はHPじゃなくてMPを削る。
    • でも人間のMPはそうそう変わらない。MP切れを起こす。
  • これまでと同じ内容の仕事を高速にやろうとすると、限界がくる。
  • 環境変化にあわせて 仕事の再定義をする必要がある。

「AI疲れ」という問題

偶有的複雑性を並列化しても、新たな負荷が生まれる

AIは作業を減らさず、むしろ強化する

タスクの拡張

PMがコードを書き、リサーチャーがエンジニアリングを担当。AIが「認知的ブースト」となり、従来は他者に委ねていた領域に踏み込む

境界の消失

仕事が「ambient(常在的)」になる。休憩・待ち時間にも作業を差し込み、休息が回復として機能しなくなる

マルチタスクの増加

手動コーディングとAI生成を並行、複数エージェントを同時稼働。注意の切り替えが絶え間なく続く

「結局、同じかそれ以上に働いている」 — 調査対象エンジニアの証言

HBR(2026.2)Ranganathan & Ye, UC Berkeley Haas "AI Doesn't Reduce Work—It Intensifies It"

なぜ「AI疲れ」は起きるのか

AIの自律性が低いと認知負荷が高まる

低い自律性

  • AIが5分動く → 確認・指示 → AIが5分動く...
  • 人間の作業密度が異常に高まる
  • 常に監視と判断が必要

高い自律性

  • 指示10分 → AIが1-2時間稼働 → 確認5分
  • 人間は本質的な仕事に集中できる
  • 認知負荷の大幅な軽減

AIを長時間動かす設計

長時間動かせないと並列化もできない

長時間稼働の効果

  • 人間は本質的な仕事に集中
  • 意思決定の質が向上
  • 認知負荷の大幅削減

並列化の可能性

  • 複数のAIエージェントを同時稼働
  • 異なるタスクを並行処理
  • アムダールの法則を超える
自律性を高めると、1人が複数のAIを指揮できる

コンテキストエンジニアリング

AIに「いちいち聞かなくていい」環境を作る

01

ルール化・明文化

繰り返すフィードバックをドキュメント化する

02

手順の明確化

判断基準や参照先を明示的に提示する

03

フィードバックループ

戻れる仕組み(Issue、コメント)を整備する

明文化が進むほど、AIは長く走り、人間は高次の判断に集中できる

本質的複雑性への2つのアプローチ

問題を理解したら、解決策を設計する

比率を下げる

アーキテクチャと設計の力

  • 関心事の分離
  • テンプレート化
  • 認知負荷の削減

発生源に向き合う

問題解決プロセス自体のAI化

  • 暗黙知の形式知化
  • コンテキストの提供
  • 価値観の構造化

本質的複雑性の比率を下げる

アーキテクチャと設計で認知負荷を削減する

テンプレート化・大域アーキテクチャ

  • 関心事の分離により、各部分の理解を容易に
  • サービス境界を明確にし、依存関係を削減
  • チーム単位での自律的な開発を実現

認知負荷を下げる設計

  • シンプルなインターフェース設計
  • 明確な責任範囲の定義
  • ドメイン駆動設計による概念の整理

本質的複雑性の発生源に向き合う

問題解決プロセス自体をAI化する

問題の本質を捉える

  • ステークホルダーの調整と合意形成
  • 顧客インサイトの獲得と分析
  • 合理的な解決策の探索と評価

暗黙知の形式知化

  • 経験に基づく判断基準を言語化
  • 組織の価値観や文化をコンテキスト化
  • 暗黙知を「コンテキスト」としてAIに提供

理由② 消える生産性

速くなったのに、どこにも届かない

「消える生産性」とは

消える生産性(Vanishing Productivity)

効率化によって生まれた時間や余力が、
組織の慣性に吸収され、最終的な価値創造に
つながらない現象

組織の慣性に吸収される

空いた時間はブルシット・ジョブに吸収される

ブルシット・ジョブの増殖

価値の低い仕事が増える

ゆとりのある労働

「ランチを長く、同僚と会話する時間が増えた」

チームの改善が組織に届かない

チームレベル(改善あり)

  • タスク完了数 +21%
  • マージされたPR数 +98%
  • 1日あたりのPR処理数 +47%

組織レベル(改善なし)

  • 全社スループット:有意な相関なし
  • DORA指標:改善なし
  • 品質KPI:改善なし
PRレビュー時間 +91%、バグ発生率 +9% — 下流のボトルネックが価値を吸収

Faros AI(2025)10,000名以上の開発者テレメトリ分析

AI生産性についての「神話」と現実(1/2)

神話「AIを導入すれば誰でも生産性が上がる」

現実:37研究のレビューで、コード品質の低下と再作業が効果を相殺。熟練者にはほとんど効果がなく、恩恵は初心者に偏る

神話「人間+AIのチームが最強の組み合わせ」

現実:Nature Human Behaviourの106実験メタ分析で、人間+AIは単独の優秀な方より悪い成果を出す場合がある

神話「AIは人間より創造的」

現実:28実験(8,214名)で、AIは新規性を高めるがアイデアの多様性は激減する。集団の創造性は低下

California Management Review(2025.10)Gruda & Aeon

AI生産性についての「神話」と現実(2/2)

神話「ミクロの効率化がマクロ経済に波及する」

現実:371推定値のメタ分析で、AI採用と労働市場成果の間に頑健な関係は見出されていない

神話「自動化すれば認知負荷が下がる」

現実:74研究のレビューで、高精度だが不完全な自動化により誤判断が12%増加。人間の注意力が低下する

神話「ルーティンの自動化でストレスが減る」

現実:ルーティンが消えると残るのは判断と例外処理だけ。高密度な意思決定がバーンアウトを誘発する

California Management Review(2025.10)Gruda & Aeon

AIのマクロ生産性への寄与は微小

GDPレベルでも2035年に+1.5%、2055年に+3%程度

消える生産性への解決策

価値を軸に仕事を再設計する

やめる仕事を決める

価値の低い仕事を積極的に削減する

成果指標を変える

忙しさではなく価値で測る

学習へ再投資する

効率化で生まれた時間を能力開発に

生産性向上は、単体では成果にならない。価値創造を同時に設計する。

理由③ 相対優位

競争は相対的な位置で決まる

競争は相対優位で決まる

速度向上は競争の参加資格(Table Stakes)でしかない

絶対速度

「自分がどれだけ速くなったか」

→ 体感の指標

相対速度

「周りより相対的に有利か」

→ 競争の指標

本質的な競争は、AIとではなく、人と人、企業と企業で起きている

AI活用できていない人でも、
なぜかAI活用に自信がある

「ChatGPTに聞いたら一発で出ましたよ。もうAI使いこなしてます」

AIの価値創出は二極化している

AIは均質化の力である

  • AIの利用が普遍化すると、それ自体は持続的な差別化にならない
  • AIは市場全体を底上げするが、特定の企業だけを有利にはしない
  • 優位性の源泉は「残余の異質性」— AIが届かない人間の創造性と実行力に移行する

MIT Sloan Management Review(2025)"Why AI Will Not Provide Sustainable Competitive Advantage"

価値を出せている企業はごくわずか

  • 59カ国・1,000名のCxO調査で、AIから成果を出せているのは26%
  • うち全社規模で価値を創出しているのはわずか4%
  • 74%の企業がPoC止まりでスケールに苦戦
  • 成功企業はリソースの70%を人とプロセスに投資している

BCG(2024)"Where's the Value in AI?" 59カ国・10業界・1,000名CxO調査

競争はAIとの競争ではない

同じ道具が全員に配られる

AIは世界中の誰もが同条件で触れるインフラになりつつある。API・オープンソース・SaaSで、技術格差はかつてなく縮まっている

差がつくのは使い方

道具の有無ではなく、業務にどう組み込み、どんなワークフローを設計するかで相対差が生まれる。BCGの調査でもリソースの70%は人とプロセスに向かう

「自社だけ速くなった」は錯覚

競合も同じ速度で改善している。絶対的な速さではなく、学習速度と適応力の差が優位性を決める。立ち止まれば相対的に後退する

赤の女王の競争

「同じ場所にとどまるためには、全力で走り続けなければならない」

— 鏡の国のアリス

  • AIは民主化され世界中に配られている
  • 企業の付加価値が上がるには、生産性の絶対値が問題ではない
  • 相対的なアービトラージがあるときに付加価値の効率が上がる
  • ある程度落ち着いてきたら参入しようでは遅すぎる

最終的な生産性は、市場との相対優位により生まれる

相対優位への解決策

学習速度が相対位置を決める

学習速度が遅い組織

  • 効率化しても距離を詰められない
  • 改善が一回の施策で終わる
  • 相対的に後退する

学習速度が速い組織

  • 同じAIでも相対優位を積み上げる
  • 改善が常態化している
  • 相対的に前進する
「生産性が上がったか」は「相対的に前進したか」で検証すべき

ボトルネックのシフト

実装から意思決定へ

エンジニアリングの本質

AIが「How(実装)」を担うほど、
人間は「What(何を作るか)/ Why(なぜ作るか)」に集中する

プログラミング

既知の解法を正確に実装する

  • 仕様が決まっている
  • 入出力が明確
  • 正解がある
  • 速さと正確さが価値

→ AIが最も得意な領域

エンジニアリング

未知の問題を試行錯誤で探索する

  • 何を作るべきかが不明確
  • 作ってみないとわからない
  • 正解がない中で判断する
  • 仮説→実験→学習のサイクル

→ 人間の仕事として残る

意思決定中心の仕事へ

実装中心から意思決定中心へ

これまで:実装中心

  • How(どう作るか)に時間が溶ける
  • 作業量が成果に見えやすい

これから:意思決定中心

  • What / Why(何を・なぜ)に寄る
  • 「遅い・迷う・揉める」領域
  • 長期判断・創造性を含む

ボトルネックの上流化

暗黙知を取り出しAIが扱える形に変換する

center

暗黙知を取り出し、AIが扱える形に変換することが新しいエネルギー源になる

だから「新しい正しさ」を獲得する

アンラーニングと知の探索

時代とともに変化する「正しさ」の概念

ソフトウェア開発の「正解」は時代とともに変わる

できる化(頼む)

人がやっていた仕事を「自分でできるようにする」

  • 最低限のプロンプト技法を学ぶ
  • 専門家ボットを作成・活用
  • 繰り返し行う業務を、担当者以外でも「できる」ように

: 法務チェック、技術調査、ドキュメント作成など
専門知識がなくても、AIを活用して自分でできるようになる

自働化(任せる)

ワークフローやAgenticな仕組みで仕事をAIに任せる

  • 社内ナレッジ、社内ツールとの接続
  • トリガー → 実行 → 報告の自動化
  • 日々の業務から手離れする

: メール受信 → 分類 → 回答案作成 → 確認依頼
人間は承認だけすればよい

自創化(指し示す)

仮説検証・創造フェーズも自動化

  • 問題を見つけ、解き、改善し続けるサイクル自体をソフトウェア化
  • 知識創造プロセス全体へのエージェント組み込み
  • 人間は方向性の承認と重要な意思決定のみ

: 顧客の声を収集 → 分析 → 改善仮説生成 → 実行 → 効果測定 → 学習
このサイクル全体をエージェントが回す

AI時代の「新しい正しさ」

組織全体に浸透させるべき3つの視点

新しい正しさを根付かせる

問題解決の「正解」は時代とともに変わる。AI時代の新しい「正しさ」を組織全体に浸透させる

ボトルネックを上流へ

暗黙知から知識を創造し、ボトルネックをより上流工程へシフトさせる仕組みを作る

探索へ人員をシフト

活用(既存事業の効率化)から探索(新規価値創出)へ人的リソースを戦略的に移行する

アンラーニングの重要性(1/3)

これまでの「常識」を問い直す

❶ 「タスクは1個ずつ順番にやるもの」

AIエージェントで部下を無制限に持てる状態に。100件あるなら100件同時に仕掛ける。ToDoが「未着手」のまま存在する瞬間は本来あってはならない

❷ 「自分はToDoをこなす側」

AIがToDoを実行する側になった以上、人間はToDoを生み出す側にならなければいけない。1人が何人分の仕事を生み出せるかがアウトプット量を決める

❸ 「作業を速くすれば全体が良くなる」

個別タスクの効率化は3倍程度で頭打ち。ボトムアップの改善ではなく、全体のアウトプット構造を変える必要がある

❹ 「5人で半年のプロジェクト」という粒度

チームで半年〜1年かけていた規模を1人にアサインし直す。タスクの粒度を10〜20倍に引き上げないとAIの生産性を活かしきれない

アンラーニングの重要性(2/3)

これまでの「常識」を問い直す

❺ 「議論してから作業する」という順序

会議を設定する間にAIに実行させてテストまで終わらせられる。作業が先、議論は後。やる方が速いなら先にやる

❻ 「フロントエンド/バックエンド」という役割意識の壁

「専門外だからアサインして」はボトルネックを生む。職能の得意な人はイネーブルメントの役割に変わり、実装は全員がやる

❼ 「5万行のコードは大きい」という感覚

コード量の感覚に桁2つ追加する。5万行は書き捨てサイズ、10万〜100万行が1人で見る範囲、PMFするプロダクトは1000万行クラス

❽ 「レビューは人間」という発想

「AIが書いたコードを誰がレビューするのか」という議論自体がすでに数周遅れ。AIレビュー→人間は方針判断に集中する

アンラーニングの重要性(3/3)

これまでの「常識」を問い直す

❾ 「1リポジトリで1チーム」という前提

AIが全コンテキストを把握する今、一人1リポでもいい。チームの単位ではなく目的の単位でリポを切る

❿ 「1チームは2Pizza」というサイズ感

AIが実装力を補う分、もっと少なくていい。2-3人でも十分なアウトプットが出せる時代になった

⓫ 「PR粒度は小さいほうがいい」神話

AIレビューが前提なら大きくてもいい。人間がdiffを目で追う制約から解放され、意味のある単位でまとめられる

⓬ 「エンジニアじゃない人はソフトウェアをつくれない」という選民思想

細かなカスタマイズはサンドボックス上でエージェントに作らせていい。非エンジニアもプロダクトに直接触れる

知の探索へのシフト

暗黙知・SECI・新しい責任と喜び

暗黙知とは何か

言葉にされていない判断基準と経験則

「言葉にされていない判断基準」や「経験則の集積」
これらから知識を生み出す知識創造のシステムが次の価値の源泉になる

「問い」が暗黙知を引き出す

問いが暗黙知を引き出す入口になる

問いを立てる

何を解きたいのか言葉にする

→ 暗黙知の入口

指示を出す

判断基準を明文化する

→ 形式知への変換

結果を検証する

期待とのズレから学ぶ

→ 知識の精緻化

AI時代の"生産性"は、「判断基準を共有できるか」に寄っていく

SECI × AIエージェント

知識創造サイクルを支援する触媒

共同化(暗黙知→暗黙知)

会議・メール・顧客対話から暗黙知を自動収集

表出化(暗黙知→形式知)

切片化→グルーピング→インサイト生成の3ステップ

連結化(形式知→形式知)

既存知識との差分で改善提案を構造化

内面化(形式知→暗黙知)

リアルタイム実践支援、個別最適化された学習パス

AIエージェントは、知識創造サイクルを支援する触媒になる

オーケストレーターとしての人間

手を動かす量から知が増える速度へ

人間:オーケストレーター

  • 全体の方向性を決める
  • 提案を承認・却下する
  • 優先順位を調整する

AI:実行と提案

  • 継続的に改善を回す
  • 選択肢を提示する
  • 実行結果を報告する
"生産性"は、手を動かす量ではなく「知が増える速度」へ置き換わる

知識創造のシステムへ

企業システムは「記録」→「つながり」→「洞察」→「知識創造」へと進化する

エンジニアの役割の移動

問題定義と文脈設計を担う人へ

これまで

コードを書く人

  • 実装に時間が溶ける
  • 作業量が成果に見える

これから

問題定義と文脈設計を担う人

  • What / Why に集中
  • AIを指揮して成果を出す

明日からできること

自分のチームで問いかけてみる

① 本質的複雑性を特定する

自分たちの仕事で「AIでは速くならない部分」はどこか、チームで洗い出す

② 余力の行き先を決める

AIで生まれた時間を何に使うか、事前に決めておく

③ 学習ループを1つ作る

相対速度を上げるための改善サイクルを、小さく1つ始めてみる

まとめ

セクションの要点

❶ 本質的複雑性が残る

一部が10倍早くなっても全体は10倍にならない → 比率を下げる / 発生源に向き合う

❷ 生産性が消える

次の一手が設計されていない → 価値を軸に仕事を再設計する

❸ 競争は相対優位

周りも同じ速度で上がっている → 学習速度を上げる

書籍QR
『AIエージェント—人類と協働する機械』
ご清聴ありがとうございました / Q&A

AIエージェントを使って実際に10倍以上の生産性で
書籍を執筆してみた。

前作との執筆時間の比較

エンジニアリング組織論への招待

前作『エンジニアリング組織論への招待』

  • 執筆期間:約1年
  • 執筆時間:1日に数時間
  • 生産性:通常
AIエージェント

本書『AIエージェント 人類と協働する機械』

  • 執筆期間:約1ヶ月強
  • 執筆時間:隙間時間のみ
  • 生産性20倍以上

本書の執筆データ

数字で見るAIエージェントとの協働執筆

35万文字

総文字数

4部16章60節

1ヶ月

執筆期間

初稿1週間+洗練3週間

774件

GitHub Issue

徹底レビュー

筆者の直接執筆:ゼロ文字 — すべてAIとの対話で生成

なぜ執筆で20倍を達成できたのか

本質的複雑性への2つのアプローチを実践

❶ 偶有的複雑性の削減

並列実行による効率化

  • 60節を同時並列で執筆
  • 一晩で15万文字を生成

❷ 本質的複雑性への対処

暗黙知の形式知化

  • アウトライン設計で事前解決
  • 暗黙知をコンテキストとして提供

これにより、従来は不可能だった20倍の生産性を実現

執筆プロセス

自律性を実現する3つの設計

暗黙知をコンテキストとして形式知化

アウトライン設計

本質的複雑性への対処

  • 「何を書くべきか」を事前解決
  • 4部16章60節の構造
  • 各節の役割と論理的流れ

文体指示書

暗黙知の言語化

  • 筆者の文体を形式知化
  • トーン&マナーの明文化
  • 用語の統一ルール
  • AI臭さの脱臭

コンテキスト設計

暗黙知の提供

  • 過去の講演録を活用
  • 1on1議事録から知見抽出
  • 文献調査とファクトチェック
  • 経験と価値観を構造化

ガードレールとプリンシプル

最低基準と判断基準の両輪でAIの自律性を担保する

ガードレール

最低基準の設定

  • 文章の書き方ルール(文体、用語、構成)
  • ファクトチェック機能の組み込み
  • 他のエージェントや読み手からの指摘を反映
  • 疑問点を著者に確認する仕組み

プリンシプル

価値観と判断基準

  • 何が重要な価値観なのか明文化
  • プリンシプルに基づいてフィードバック
  • 自律的な修正をより機能させる

10名以上のレビューアから774のIssue

徹底的なフィードバックループの構築

🤖

AIエージェントが自動処理

ほぼすべてのIssueを自動で解決

📱

いつでもどこでも

お風呂・旅行中もスマホで確認

👤

想定読者エージェント

疑問点を自動でIssue化(300件以上)

⚙️

演繹と帰納の使い分け

textlint+AIエージェントの組み合わせ

「積み上げ型」vs「削り出し型」

あらゆる創造活動の作り方が根本的に変化する

従来:積み上げ型

  • レンガを一個ずつ積み上げる
  • パーツごとにタスクを完了
  • 部分から全体へ
  • 逐次的な開発プロセス

AI時代:削り出し型

  • 木から彫刻を削り出すように
  • 全体像から詳細へ解像度を上げる
  • 大まかな形 → 一行一文まで精緻化
  • すべての創造活動が変化

note: 本書はAIで「速くなった」のに「成果が増えない」矛盾を、 ①本質的複雑性が残る(アムダールの法則) ②「次の一手」が設計されていない(消える生産性) ③競争は相対優位で決まる(赤の女王) という3層で読み解きます。

背景をリセット

背景をリセット

note: 【メッセージ1-15】 AIエージェントの普及で体感速度は上がった。 しかし体感の速さ≠価値の増加。 この矛盾を「本質的複雑性」「消える生産性」「相対優位」の3つのレンズで解剖する。

note: メッセージ1-2: AIエージェントは知識を返すだけでなく、ツールを使って行動できる存在として普及し始めた。 しかし、期待どおりの生産性向上が実現しない現実がある。

note: メッセージ3-6: 私たちは「作業が速くなった」という体感を得やすい。 しかし体感の速さは、そのまま「価値の増加」を意味しない。 価値は最終成果(売上・利益・顧客価値)としてしか確定しない。 だから「速くなったのに成果が増えない」という矛盾が起きる。

note: メッセージ7-9: この矛盾は、AI技術が期待外れだからではなく、構造的な理由がある。 ①本質的複雑性が残る、②生産性が消える、③競争は相対優位で決まる

note: エンジニアリングの本質に立ち戻り、複雑性の構造を理解する。

note: フレッド・ブルックスの名著から。 本質的複雑性はAIでも高速化が困難、偶有的複雑性はAIが大幅に高速化できる。

note: ブルックスは本質的複雑性を4つの性質に分解した。 複雑性、同調性、可変性、不可視性。 これらはどれも技術的手段だけでは解消できない。 AIが高速化できるのは偶有的複雑性であり、この4つは残り続ける。

note: メッセージ46-50: この限界を説明するのが、並列化の限界を示すアムダールの法則である。 並列化できない部分が一定割合残る限り、全体の高速化には上限ができる。 開発で並列化できない部分には、要件定義・設計判断・レビューが含まれる。 したがって「コード生成が10倍速い」だけでは、全体は10倍にならない。 この上限を無視すると、期待と現実のギャップがストレスになる。

note: メッセージ49の具体例: したがって「コード生成が10倍速い」だけでは、全体は10倍にならない。 シリアル部分(要件・設計・レビュー)が10%でも、全体は約5倍が上限。 シリアル部分が50%なら、全体は約2倍程度に収まる。

note: AIは仕事の密度を上げる。それは意思決定と不確実性への対峙である。 意思決定はHPではなくMPを削る。しかし人間のMPはそうそう変わらない。 これまでと同じ仕事を高速にこなそうとするのではなく、仕事そのものを再定義する必要がある。

note: 偶有的複雑性をAIで高速化しても、確認・判断の連打で認知負荷が増大する。 「速くなったのに疲れる」という逆説が起きる。

note: HBR(2026年2月)の記事「AI Doesn't Reduce Work—It Intensifies It」を解説。 UC BerkeleyのRanganathanとYeが、米テック企業約200名を8ヶ月間調査した結果、 AIは作業削減どころか、3つの次元で仕事を強化(intensify)することが明らかになった。

note: 頻繁なフィードバック要求と意思決定の連続が認知負荷になる。 AIが5分動く→確認・指示→AIが5分動く…の繰り返しでは疲弊する。

note: AIの自律性を高めることで、人間の介入頻度を下げ、AIを長時間動かせるようにする。 長時間動かせると、複数のAIを並列に走らせることも可能になる。

note: そのために必要なのが、AIの自律性を高める設計である。 自律性を高める設計は、AIが迷わないための文脈(コンテキスト)提供から始まる。

note: 本質的複雑性への対処として、2つのアプローチを提示。

note: アーキテクチャと設計の力で本質的複雑性の比率を下げる。

note: 問題解決プロセス自体をAIエージェント化することで本質的複雑性に向き合う。

note: 【メッセージ66-85】 AI導入で効率が上がっても、組織成果が伸びないことが起きる。 その矛盾自体が「消える生産性」の本質である。 次の一手が空白だと、空いた時間は組織の慣性に吸収される。

note: メッセージ66-68: AI導入で個人・チームの作業効率が上がっても、組織成果が伸びないことが起きる。 その矛盾自体が「消える生産性」の本質である。 消える生産性は、効率化をどう使うかという"次の一手"が設計されないときに起きる。

note: メッセージ69-72: 次の一手が空白だと、空いた時間は組織の慣性に吸収される。 吸収の一形態が、価値の低い仕事が増える「ブルシット・ジョブ」の増殖である。 ブルシット・ジョブが増えると、忙しさが成果の代替指標になる。 その結果、「速くなったのに、手応えがない」という感覚が強まる。

note: Faros AIが1,255チーム・10,000名以上の開発者データを分析。 チーム単位ではタスク完了21%増・PR数98%増だが、企業レベルのスループット・DORA指標・品質KPIには有意な相関なし。 レビューキュー膨張・採用の偏り・浅い活用が原因。アムダールの法則が組織に当てはまる。

note: UC BerkeleyのGrudaとAeonが、AIと生産性に関する通説を実証研究で検証した論文。 広く信じられている「神話」に対して、メタ分析や大規模レビューで反証を示している。

note: ペンシルベニア大学ウォートンスクールの予算モデルによる推計。 2025年時点でのAIによるTFP成長寄与は0.01ポイントにすぎない。 2032年にピーク(0.2ポイント)に達するが、歴史的なIT革命と同様、浸透には時間がかかる。 GDPレベルで見ても、2035年までに+1.5%、2055年までに+3%程度。

note: メッセージ80-84: つまり生産性向上は、単体では成果にならない。 成果にするには、効率化と同時に価値創造を設計する必要がある。 価値創造を設計するとは、やる仕事を増やすのではなく、やめる仕事を決めることでもある。 価値創造を設計するとは、成果指標を忙しさから価値へ置き換えることでもある。 価値創造を設計するとは、学習と適応へ時間を再投資することでもある。

note: 【メッセージ86-100】 競争の勝敗は「絶対的に速いか」ではなく「相対的に有利か」で決まる。 AIツールが広く手に入るほど、速度向上は"みんなが持つ前提"になる。

note: メッセージ16-18: 競争の勝敗は「絶対的に速いか」ではなく「相対的に有利か」で決まる。 AIツールが広く手に入るほど、速度向上は"みんなが持つ前提"になりやすい。 すると「速くなった」は差別化ではなく、参加資格(テーブルステーク)に近づく。

note: AI活用があまりできていない人ほど、自分のAI活用レベルを過大評価する傾向がある。 これはダニング・クルーガー効果として知られる認知バイアスの一種。 実際にAIを深く活用している人ほど、まだ活用しきれていない領域の広さを自覚している。

note: MIT Sloan Management Review(2025)とBCG(2024)の調査が示す二極化構造。 MITはAIが均質化の力であり持続的優位を生まないと主張。 BCGは1,000名のCxO調査で、AIから価値を出せている企業は26%、うち本格的に成果を出しているのはわずか4%と報告。

note: メッセージ6-9: 競争は人と人・企業と企業の比較だから、AIが配られた後は"相対差"がすべてになる。 AIは世界中の誰もが同条件で触れる道具になりつつあるから、道具の有無では差がつかない。 「自社だけ速くなった」という前提は崩れやすく、気づくと周りも同じ速度で上がっている。

note: メッセージ25-28: 相対位置を変える鍵は、ツール導入よりもワークフロー変化の学習速度にある。 学習速度が遅い組織は、効率化しても競争上の距離を詰められない。 学習速度が速い組織は、同じAIでも相対優位を積み上げる。 したがって「生産性が上がったか」は「相対的に前進したか」で検証されるべきである。

note: 【メッセージ36-65】 エンジニアリングの本質は、不確実性を減らす営み。 AIが「How」を肩代わりすると、人間は「What/Why」に集中する。 しかしそこは「遅い・迷う・揉める」領域である。

note: メッセージ36-38: エンジニアリングの本質は、不確実性を減らす営みとして捉えられる。 プログラミングが既知の解法での実装だとすれば、エンジニアリングは未知の問題を探索する。 AIが「How(実装)」を肩代わりすると、人間は「What/Why」に認知資源を振り向ける。

note: メッセージ39-41: すると、人間の仕事は実装中心から意思決定中心へ移っていく。 意思決定中心になるほど、仕事は"遅い・迷う・揉める"領域に寄っていく。 その領域は、AIが現時点で完全代替しにくい長期の判断や創造性を含む。

note: メッセージ86-88: 自動化が進むほど、ボトルネックは上流の暗黙知と文脈へ移動する。 暗黙知とは、言葉にされていない判断基準や経験則の集積である。 暗黙知を取り出し、AIが扱える形に変換することが新しいエネルギー源になる。

note: 3つの問題構造を理解したら、新しい正しさを獲得する必要がある。 これまでの常識を問い直し、知の探索へシフトする。

note: AI時代には、これまでの常識を問い直す必要がある。 8つのアンラーニング項目のうち前半4つ。

note: 8つのアンラーニング項目のうち後半4つ。

note: 12のアンラーニング項目のうち最後の4つ。

note: 【メッセージ86-100】 自動化が進むほど、ボトルネックは上流の暗黙知と文脈へ移動する。 エンジニアの役割は、コードを書く人から、問題定義と文脈設計を担う人へ進む。

note: メッセージ87-88の詳細: 暗黙知とは、言葉にされていない判断基準や経験則の集積である。 - 優秀な営業の「顧客対応の勘」 - 熟練エンジニアの「問題解決の直感」 - 経験豊富なマネージャーの「状況判断力」

note: メッセージ53-55: 鍵になるのは「問い」で、問いが暗黙知を引き出す入口になる。 経営者が自分でAIを使うほど、判断基準が形式知化されて組織に伝播しやすくなる。

note: メッセージ89-92: 暗黙知と形式知の往復を説明する枠組みとしてSECIモデルがある。 SECIとAIエージェントを統合すると、暗黙知の形式化が現実的なテーマになる。 形式化は、議論・レビュー・現場の会話を"意味単位"で扱い直すところから始まる。 AIエージェントは、収集・構造化・統合によって知識創造サイクルを支援できる。

note: メッセージ77-79: 知識創造では、人間が提案を承認しつつ、AIが継続的に改善を回す形が強い。 人間はオーケストレーターになり、AIは実行と提案を担う分業が成立する。 "生産性"は、手を動かす量ではなく「知が増える速度」へ置き換わる。

note: 企業システムは「記録」→「つながり」→「洞察」→「知識創造」へと進化する。 SoK(System of Knowledge)は、AIエージェントが知識創造サイクルの触媒となる次世代のシステムである。

note: メッセージ98: するとエンジニアの役割は、コードを書く人から、問題定義と文脈設計を担う人へと進む。

note: 議論の問いを行動に変換。個人・チームで実践できるアクション。

背景をリセット