判定ロジック(透明化バージョン)

このページは法務・IT・詳細を確認したい方向けに、判定ロジックの全容を透明化したものです。 ソースコードは GitHub で公開しています。

3軸フレームワーク

ユーザーが3つの変数を選択し、その組み合わせで判定が決まります:

  • ツール: ChatGPT / Claude / Gemini / Microsoft Copilot / Perplexity / 地域コンプライアンス制限モデル / オープンソース・ローカルモデル
  • アカウント階層: 法人版 / 有料個人 / 無料 / 不明
  • データ種別: 公開データ / 匿名化済み / 社内マーケコピー / 顧客 PII / 注文明細 / 財務数値 / 営業秘密 / 人事データ / コード

3層の判定ロジック

  1. Layer 1 — ツールによる上書き(最も決定的)
    • 「地域コンプライアンス制限モデル」(DeepSeek / Qwen / 文心 / 豆包 / Kimi 等):特定地域のデータセキュリティ法規の影響を受けるため、企業の機微データは推奨しません
    • 「オープンソース・ローカルモデル」(Ollama / LM Studio / llama.cpp):完全ローカル推論、データが端末から出ないため、全面的に問題なし
  2. Layer 2 — データ機微度による上書き
    • 顧客 PII / 注文明細 / 財務数値 / 営業秘密 / 人事データ:ツール・アカウント階層を問わず、デフォルトで ❌ RISK
    • コード:法人版 ✅、個人版 ⚠️
  3. Layer 3 — アカウント階層(低機微データ向け)
    • 法人版(Enterprise / Team / Workspace):✅ データ分離契約あり
    • 有料個人:⚠️ デフォルトで非学習だが、利用規約に例外あり
    • 無料・不明:⚠️ 通常、対話内容がサービス改善に利用されます

なぜ「データ種別」が最も決定的な軸なのか

従来の「LLM セキュリティ懸念」議論は「どのモデルが安全か」に集中しがちですが、 この捉え方は誤りです。OpenAI / Anthropic / Google の法人向け DPA(データ処理契約)の中身は概ね類似しており、 リスクを真に決定するのは ユーザーが何を入力するか です。 顧客の身分証番号を「最も安全な」ChatGPT Enterprise に入力しても、依然として GDPR / 個人情報保護法違反となります。 公開された市場ニュースを無料 ChatGPT に貼り付けるリスクは、実際には低いものです。

「地域コンプライアンス制限モデル」を独立カテゴリにする理由

DeepSeek / Qwen / 文心一言 / 豆包 / Kimi 等、中国企業が運営するモデルは モデル自体の品質に問題があるわけではなくデータフローの法的地理的位置 が問題です。 データセキュリティ法・個人情報保護法・サイバーセキュリティ法等の規制下で、 これらの企業は当地の規制当局に対しユーザーデータの提供を求められる可能性があります。 企業契約でクロスボーダーデータフローが明示的に処理されていない場合、データを送ることはコンプライアンスリスクとなります。

これらのモデルを安全に使う代替手段:

  • オープンウェイト版を自社ホスト(Apache / MIT ライセンスのものが多い)
  • EU / 米 / 日台のデータ主権保証があるサービス(Anthropic / OpenAI / Google)に切り替え

❌ 判定の Escape Hatch(例外条項)

すべての ❌ RISK 結果には次の注記が付きます: 「企業内専用インスタンス(Azure OpenAI Private Deployment / Vertex AI Private Endpoint / 自社ホスト推論サービス)を利用している場合、この判定は適用されません。」

理由:本ツールの判定対象は「公開インターネット版 LLM サービス」です。 貴社が調達 / 自社構築でプライベートデプロイを使っており、 推論が貴社のクラウドプロジェクトやデータセンター内で行われる(データが社外に出ない)場合、 「送ってはならない」制限の多くは適用されません。その場合、貴社のセキュリティ部門の GenAI ポリシーが優先されます。

条項引用 + タイムスタンプ

各結果カードの条項リンクには snapshot_date(現在 2026-05)が付与されており、 「その時点の規約に基づき判定した」という意味です。LLM ベンダーの規約は時間と共に変わるため、 重要なリンクは半年ごとにご確認ください。本サイトも定期的にレビュー・再公開します。

Limitations(このツールができないこと)

  • 本ツールは 法的助言ではありません。具体的な契約・クロスボーダー法令遵守・個人情報漏洩責任については、法律専門家にご相談ください。
  • 3軸はほとんどの一般的なシナリオをカバーしますが、エッジケース(例:「ChatGPT で匿名化済みかつ未公開の運用トレンドレポートをまとめる」のような混合シナリオ)は人間の判断が必要です。
  • 判定ロジックは ルールベース であり、個別の文脈で変動しません。個別状況の補足が欲しい場合は、結果ページのテキストエリアで具体的な状況を入力すると、Claude Haiku が補足説明を提供します(ルール判定は覆しません)。
  • 条項引用は LLM ベンダーの 公開文書 に基づきます。貴社が別途調達契約(OpenAI Enterprise Agreement、Google Workspace Enterprise Plus 等)を持っている場合、実際の規約は公開版より緩やか・厳しいことがあります。

Source Code

判定ロジックは src/data/decision.ts、ツール条項リンクは src/data/tools.ts、 ユニットテストは tests/decision.test.ts にあります。 ツール追加・条項リンク修正・エッジケース対応の PR を歓迎します。

最終更新:2026-05-06。判定は 2026-05 時点の各 LLM ベンダー公開規約に基づきます。