第6章:AI活用ガードレール(機密/再現性/レビュー)
この章で学ぶこと
- AI出力は“仮説”として扱い、一次情報/検証で裏取りする
- 機密情報を入力しない(入力制御と手順)
- レビュー観点(前提/例外/互換性)で品質を担保する
成果物(または判断基準)
- AI利用チェック(付録: AI利用チェック)
- AI出力の検証メモ(何を裏取りしたか)
本文
AIは検索の代替ではなく、調査の加速装置として位置付ける。出力の正しさは保証されないため、必ず裏取りが必要。
手順(最小)
- AIに渡す前に、目的と制約(機密/対象バージョン/環境)を整理する
- 入力は最小化し、秘密情報/個人情報/顧客情報を含めない
- 出力は仮説として分解し、一次情報(公式/仕様/実装)と検証で裏取りする
- 採用/不採用の判断と根拠を調査ログに残す(再現性と監査性を担保する)
実務でのガードレール
- 入力: 秘密情報/個人情報/顧客情報を投入しない
- 出力: 仕様/実装/検証で裏取りする
- 共有: 結論だけでなく“根拠”を残す
- レビュー: 前提/例外/互換性/影響をチェックする
注意点
- 生成AIは「それらしいが誤り」の出力を返しうる。引用・リンク・数値は一次情報で要確認とする
- 入力の取り扱い(保持/学習/共有範囲)は提供形態で異なる。組織の規程に従う(不明な場合は要確認)
ミニ例(ログ→仮説→裏取り)
入力(マスキング済み):
error=TimeoutError elapsed=10.02s
x-request-id=2f3a8d1c-...
プロンプト例:
次のログから原因候補を3つ挙げ、各候補について一次情報/検証での裏取り手順を1つずつ提案してください。
不明な点は推測で断定せず「不明」と書き、追加で必要な情報(例: 対象ライブラリのバージョン、設定値、リトライ有無)も列挙してください。
具体例(悪い例→良い例)
悪い例
AIの回答をそのまま採用して実装
根拠は残さず、検証もしていない
良い例
AIの回答を仮説として整理
一次情報: 公式ドキュメント/仕様/実装で裏取り
検証: 最小構成で再現
共有: 調査ログに結論/根拠/未確定点を記録
チェックリスト
- 機密情報を入力していない
- 一次情報または検証で裏取りした
- 前提/例外/互換性を確認した
- 根拠を調査ログに残した
まとめ
- AI出力は仮説として扱い、一次情報/検証で裏取りする
- 入力制御(機密/個人情報)とレビュー観点で安全性・再現性を担保する
次章への接続
- 次章: 第7章