AI協働の標準手順(SOP)
本書では、生成AI(LLM)を「提案・草案・観点出し・整理」を支援するツールとして扱う。 AIの出力は誤り得る前提で、最終責任は人間が負う。
本ページは、章をまたいで再利用できる AI協働の標準手順(SOP) を1枚にまとめたものである。
全体像(8ステップ)
- タスク定義(目的・利用者・意思決定点・制約)
- 情報分類(機密/個人情報/ソースコード/契約情報 → 外部AI可否)
- 入力設計(前提、根拠資料、出力形式、禁止事項)
- 生成(複数案、前提確認質問、代替案)
- 評価(品質基準、リスク、説明可能性、再現性)
- 検証(一次情報、テスト、レビュー、再現確認)
- 反映(ADR/チケット/PR/Runbook等に落とす)
- 記録(プロンプト、出力、判断理由、検証結果、ログ)
ステップ別の要点(成果物とゲート)
| ステップ | 主な成果物 | 最低限のゲート(例) |
|---|---|---|
| 1. タスク定義 | 目的/制約/判断点 | 「何を決めるか」「誰が責任者か」が明確 |
| 2. 情報分類 | 入力可否の判断 | 外部AIに投入してよい範囲が確定 |
| 3. 入力設計 | 構造化した指示 | 出力形式・品質基準・禁止事項が明確 |
| 4. 生成 | 複数案/質問 | 前提が曖昧なら先に質問させる |
| 5. 評価 | 指摘と改善指示 | 断定・飛躍・リスク・手順漏れを検出 |
| 6. 検証 | 裏取り/テスト結果 | 一次情報・再現手順・差分が残る |
| 7. 反映 | ADR/PR/Runbook等 | 人間レビュー(必要なら二重承認) |
| 8. 記録 | 台帳/ログ | 後日追跡できる粒度で保存 |
成果物への落とし込み先(例)
- 設計判断: ADR(前提/選択肢/理由/リスク/ロールバック)
- 実装変更: PR(要約、AI使用有無、検証結果、リスク)
- 運用手順: Runbook(手順、禁止事項、承認条件、ログ)
- 障害対応: インシデント記録(状況、判断、実行、検証、ポストモーテム)
注記: 「AIが提案した手順」をそのまま実行しない。特に本番環境への変更は、権限分離・レビュー・監査ログを前提とする。
最小運用(Small Start)
最初から全工程を整備できない場合は、まず次の3点を必須とする。
- ステップ1(タスク定義): 判断点と責任者を明確にする
- ステップ2(情報分類): 外部AI投入可否を決める
- ステップ7(反映): 人間レビューと承認ゲートを置く