常見問題
Q1. 我用個人 Pro 帳號(ChatGPT Plus / Claude Pro),真的不能丟敏感資料嗎?
技術上 OpenAI / Anthropic 的個人付費帳號預設「不會用對話內容訓練模型」,但條款仍保留例外(abuse 偵測 / 法律調閱 / 系統故障 debug 等情況可能會看到內容)。對「敏感資料」的定義也是你公司說了算——公司資安政策可能規定即使是付費個人帳號也不能丟客戶資料,違反就是違反。
建議:
- 低敏資料(市場新聞 / 已彙總分析 / 公開文案)→ 個人付費版 OK
- 中敏資料(內部未公開但非機密)→ 找企業帳號或公司核可的內部 GenAI
- 高敏資料(PII / 訂單 / 財務 / HR / 商業機密)→ 不論個人或企業帳號,都別丟公網 LLM
Q2. 為什麼「區域合規性受限模型」一律標紅?
不是模型本身有問題,而是資料流向的法律地理位置。DeepSeek / Qwen / 文心 / 豆包 / Kimi 等服務由中國公司營運,根據《數據安全法》《個人信息保護法》《網絡安全法》,這些公司可能被要求提供使用者資料給該地監管機關。
對企業使用者,這代表:你的 prompt 內容理論上可能落入該地司法管轄。若你公司沒有明確處理跨境資料流向的合約,丟進去就是合規風險。
例外:如果是 open weights 自架版本(如自己跑 Qwen 2.5 的本地版),推論完全發生在你方控制的環境,那不算「丟給中國公司」,可以照「開源本地模型」分類處理。
Q3. 你怎麼定義「企業版」(Enterprise / Team / Workspace)?
指有「資料處理合約(DPA)」或「不訓練條款」的付費企業方案:
- OpenAI: ChatGPT Enterprise / Team、API + Zero Data Retention 設定
- Anthropic: Claude Enterprise / Team、API(Commercial Terms)
- Google: Gemini for Workspace(Workspace Business / Enterprise plan 內建)
- Microsoft: Copilot for Business / Microsoft 365 Copilot
個人 Pro / Plus / Premium 不算企業版。免費版更不算。
Q4. 結果說 ❌ 但我們公司有 Azure OpenAI Private Deployment / Vertex AI Private Endpoint,怎麼辦?
這個工具的判斷對象是「公網版 LLM 服務」。如果你公司已經有採購 / 自建的私有部署,推論發生在你方控制的雲端 project 或機房(資料不出公司),那很多「不能丟」的限制就不適用——應以你公司資安部門的 GenAI 政策為準。
所有 ❌ 結果卡都有 escape hatch 區塊提醒這點。
Q5. 這個工具會儲存我的選擇嗎?
不會。
- Wizard 三軸選擇完全在瀏覽器跑
- Share URL 用 base64 obfuscate(URL 不明文暴露你選了什麼)
- 結果頁的 LLM 補充(textarea)會傳給 Anthropic 處理,但我們不儲存內容,只記匿名 metrics
- 無 cookie,無 analytics(v1.0 完全不追蹤)
Q6. 條款連結會過期 / LLM 廠商會改條款,怎麼辦?
每個 reference 都帶 snapshot_date(目前 2026-05)。作者每 3-6 個月手動 review 一次重要連結是否還有效,並更新本站。如果你發現連結 404 或條款內容已過時,歡迎在 GitHub 開 issue。
Q7. 為什麼沒有「我用的工具」?
v1.0 涵蓋 7 大類:ChatGPT / Claude / Gemini / Microsoft Copilot / Perplexity / 區域合規性受限模型 / 開源本地模型。其他工具(Mistral / Cohere / xAI Grok / 各種 RAG 工具)目前未涵蓋。
如果你常用某個工具想加進來,請在 GitHub 開 issue 或 PR:告訴我工具名稱 + 它的官方資料處理條款連結 + 帳號等級分布,會評估後加入。
Q8. 用免費版有沒有任何例外?
免費版的條款幾乎都允許服務方用對話內容改善模型 / 服務(OpenAI Free、Gemini Apps 個人版、Claude Free 等)。但例外:
- API 呼叫(即使免費 tier)通常有「不訓練」的預設,跟 ChatGPT.com 的 Free 不同
- 有些服務有 opt-out 設定可以關閉「資料用於訓練」
- 本地推論(用 Ollama 跑開源模型)完全不受此限
建議:如果只能用免費版,至少打開 opt-out(如 ChatGPT 的 "Improve the model for everyone" 關掉),但仍要避免丟敏感資料。
Q9. 跟 ChatGPT Enterprise 自己的 trust center 有什麼不同?
OpenAI 的 trust center 只講「ChatGPT Enterprise 多安全」。本站的角色:
- 跨工具比較:你在 Claude / Gemini 之間選擇時,本站給中立判斷
- 跨帳號等級:強調「同樣是 Claude,企業 vs 個人 vs 免費的差別」
- 從使用者情境出發:不是賣產品,是回答「我這份資料能不能丟」
Q10. 我是來找 fight 的,你怎麼敢給法律建議?
本站沒給法律建議。所有結果卡 + About 頁 + 本頁都有免責聲明:「本站僅供參考,不代表任何法律建議或官方合約承諾」。本站是技術 framework——把分散在各家條款的事實彙整成決策樹。具體合約 / 個資責任 / 跨境合規問題,請諮詢法務專業人士。
最後更新:2026-05-06