AIとは、結局何なのか。
まず全体像を一枚で握ってしまう。今日扱う Claude も、世にある ChatGPT も、根は同じ「大規模言語モデル (LLM)」と呼ばれる仕組みである。
What it is
LLM (Large Language Model) は、膨大なテキストデータを学習した「次にどんな言葉が来るかを予測する」モデルである。人間のように考えているわけではない。文脈から確率的に次の言葉を選び続けることで、結果として知的な対話・文章生成・要約・翻訳・コード生成・分析を行えるようになっている。
この前提を押さえておくと、「AI が万能なのか / そうでないのか」「どこを信じてどこを疑うべきか」の判断軸ができる。
What it can do
- 文章を書く / 要約する / 翻訳する
- 会話の文脈を踏まえて答える
- コードを生成する・読み解く
- 大量のテキストを横断して分析する
- 表・グラフ・図表 (画像出力できるモデルも) を作る
- 複雑な思考プロセスを言語化して整理する
What it cannot do (yet)
- 物理的な行動 (現実世界のモノを動かす)
- リアルタイム情報の絶対的な保証 (最新情報は不確か)
- 常に正しい事実だけを返すこと (ハルシネーション: 後述・付録A)
- "自分の意志" や "感情" を本当に持つこと
3つの "信号" で見る: AI に任せる/任せないの判断軸
業務を「AI に任せていいか」で3つに分類する。経営判断で迷った時、この信号機を思い出す。
- 文章の生成・要約・翻訳・添削
- 大量テキストの分析・整理
- 議事録の整形、メールのドラフト
- コードの生成と説明
- 調査・情報収集のまとめ
- 図表・スライド・資料の下書き
- アイデア出しの数を稼ぐ
- 多言語での文面作成
- 戦略立案・企画ブレスト
- 意思決定の選択肢比較
- デザイン・UI/UX の判断
- 顧客対応の文面作成
- プロジェクトの進め方設計
- 採用候補者の評価サマリ
- 過去判断の類似ケース提示
- 業務プロセスの設計
- 最終的な経営判断・責任を伴う決定
- 現場の体感・暗黙知が要る判断
- 感情のこもった対応・人間関係の調整
- 事実関係の最終確認 (ハルシネーション対策)
- 物理的な行動・対面のコミュニケーション
- 創造の "種" — 何を作るかの起点
- 法的拘束力のある判断・契約
- 未公開機密情報の扱い (セキュリティ判断)
青信号は迷わず任せる、黄色は人と AI の対話で詰める、赤は AI に頼らない。この3階層で見るだけで、経営判断の質と速度が両立する。
AIは 「とんでもなく賢いアシスタント」 であって、「万能の魔法」ではない。強みと限界を見極めて、使い分ける側の判断は残り続ける。