design20

AI導入が進まない理由は、技術ではない

先に決めるべきは「どの事業をどう変えたいか」。 事業・業務・成果が決まらないまま、ツール選定やPoCから入ると、判断が止まる。

前提 AIはツールやアプリではない。未完成な技術であり、前提は毎月のように変わる。

このページで扱うこと

最初に決める3点

AIの前に、まずこれを決める。決まらないなら、AI導入は開始しない。

  • どの事業を対象にするか
  • どの業務を対象にするか
  • 何を成果とするか

よくある誤り

全体を決める前に、ツールから検討してしまう。

  • PoCが目的化する
  • ベンダー比較が終わらない
  • 成功/失敗が判断できない

この整理でできること

「決める」だけで、次に進める。

  • PoC範囲が自然に決まる
  • 必要なAIの種類が絞れる
  • 成果の判断が可能になる

最初のルール

AI導入は「事業・業務・成果」を先に決める。

これが決まらない状態で、PoC・ツール選定・ベンダー比較に入っても、 何をもって成功かが誰にも判断できないため、前に進まない。

補足:AIは未完成な技術。中身は日々更新され、毎月のように前提が変わる。だからこそ「比較」より前に「目的と成果」を固定する。

そのまま使える整理テンプレ

会議で決める“4行”

対象事業 (例)既存BtoB事業 / 既存BtoC事業 / 新規事業
対象業務 (例)見積作成、初期問い合わせ、受注・出荷、財務・経理、人事、物流、DX推進、各種開発、IT部門立ち上げ など
目的 (例)営業工数削減、間接業務効率化、DX化、スクラッチ開発の着地点整理 など
成果指標 (例)時間30%短縮 / 全体20%効率化 / ミス低減 / 判断回数増加 / 期間短縮 など

複数の具体例(業務が違っても“決めること”は同じ)

例①:既存BtoB事業(営業支援)

  • 対象業務:見積作成、初期問い合わせ対応
  • 目的:営業工数の削減
  • 成果指標:見積作成までの時間を30%短縮

例②:既存BtoC事業(オペレーション)

  • 対象業務:顧客対応、受注・出荷、流通・物流の処理
  • 目的:業務全体の効率化
  • 成果指標:処理時間20%削減、ミス低減

例③:事業計画・新規事業

  • 対象業務:既存事業計画の見直し、新規事業検討
  • 目的:判断スピードの向上
  • 成果指標:検討期間短縮、意思決定回数の増加

例④:管理部門(財務・経理・総務・人事)

  • 対象業務:財務管理、経理管理、総務管理、人事管理
  • 目的:間接業務の効率化
  • 成果指標:月次作業時間の削減、確認工数の削減

例⑤:DX・開発・IT部門増設

  • 対象業務:DX推進、各種開発、IT部署増設
  • 目的:属人化の解消と全体最適
  • 成果指標:全体見直しで20%効率化、標準化の進行

重要:ここまで決まると何が起きるか

  • PoCの範囲が限定できる
  • ベンダーへ出す条件が明確になる
  • 成果の判断ができる(説明が不要になる)

メディア事例がそのまま使えない理由

YouTubeや各種メディアでは、AI研究者やベンチャーの活用事例が多く語られている。 しかし現場の相談では、それらをそのまま前提にしてしまい、AIの扱い方が整理されないまま導入検討が進むケースが非常に多い。

事例やツールの話が先行すると、「事業として何を判断すべきか」が置き去りになり、結局、判断が止まる。

用途ごとのモデル切り替えが判断を遅くする

よくある誤りは、用途ごとにAIモデルやサービスを次々と切り替えること。 例えば、長文読解はGPT、画像生成はGemini、コードはClaude、それ以外はAzureのCopilot、といった使い分け。

判断基準が分散

評価が統一されず、改善か劣化か判断できない。

比較ができない

同条件の比較が崩れ、議論が長期化する。

責任が曖昧

誰が判断したかが消え、意思決定が遅くなる。

AIは未完成な技術で、前提が毎月のように変わる。 その状態で切り替え運用を増やすほど、判断は遅くなる。

Copilotの前提(M365とAzureは同列ではない)

Copilotと一口に言っても、M365のCopilotとAzure上のCopilotは性質が異なる。 M365は業務アプリケーション環境であり、サーバーや実行基盤ではない。

M365 Copilot(業務用途で整理しやすい)

M365のCopilotは、GPTに対してMicrosoft独自のRAGを組み込み、用途や参照範囲を限定した形で設計されている。 自由度は高くないが、業務用途として前提や制限が明確で、この「制限されている」こと自体が安全性につながる。

Azure Copilot(実行環境や構成の話)

Azure上のCopilotは実行環境や構成の話であり、それだけで業務利用の安全性が担保されるわけではない。 「AzureのCopilotだから安全」という前提で進めるのは、認識の出発点そのものが誤っている。

ソースコードは“余計なAIを挟まない”

ソースコードについては、GitHubをそのまま利用する方が、Claudeを取り入れるより合理的なケースが多い。
GPT Codex、Gemini Coding Partnerでも十分対応可能だ。余計なAIを挟むことで、判断基準や管理対象が増えてしまうためだ。

次に読むページ

design20_01:専門チーム立ち上げ(実行条件)

人員(数名〜10名)、検証期間(1日8時間×最低6ヶ月)、有料LLM2種(GPT / Gemini必須)など、 「片手間で成立しない」現実条件をまとめる。

design20_01 を開く

コンサル詳細:判断・整理(90分特別枠)

講義ではなく「判断・整理」に限定。事業・業務・成果をその場で決めるためのページ。

consul_detail を開く

#21予告:この整理を「1枚の図」と「具体的な進め方」に落とし込む。明日水曜に公開予定。