⚖️ 單元三:負責任的 AI 應用
📌 AI 的六大責任原則
1. 公平性 (Fairness)
- AI 系統必須公平對待所有群體
- 衡量指標:選擇率差異、各子群模型效能差異(精確度、召回率、錯誤率)
- 工具:Azure ML Responsible AI Dashboard
2. 可靠性與安全性 (Reliability & Safety)
- 錯誤分析是關鍵步驟
- 持續測試與改進模型
- 識別模型弱點以防止真實世界失敗
3. 隱私與保密性 (Privacy & Confidentiality)
- 遵守隱私法規
- 資料收集/使用/儲存的透明度
- 資料加密與匿名化處理
- 給予使用者對其資料的控制權
4. 包容性 (Inclusiveness)
- 設計可被不同族群使用的 AI 系統
- 考慮身障人士、不同語言、文化差異
5. 透明度 (Transparency)
- 模型可解釋性
- 利害關係人能理解 AI 的決策過程
- 使用可解釋 AI 工具 (Explainable AI)
6. 責任 (Accountability)
- 明確的責任歸屬
- 人類監督機制
- 影響評估
📌 重要分析方法
| 方法 | 說明 | 案例 |
|---|---|---|
| 反事實分析 | 探索「如果...會怎樣」 | 自駕車:如果光線從白天變黃昏? |
| 因果推論 | 評估實際因果效果 | 員工培訓是否真的提升生產力? |
| 擾動分析 | 微小輸入變化測試穩健性 | 咖啡配方微調的影響 |
📌 國際 AI 法規
歐盟 AI 法案 (EU AI Act)
- 風險分類:不可接受風險 → 高風險 → 有限風險 → 最小風險
- 合規要求、透明機制、罰則、監控與通報
台灣政府指引
- 限制提供機密資訊給生成式 AI
- 使用 AI 產出需驗證其正確性
- 公共服務使用 AI 時需揭露
📌 Responsible AI Dashboard (Azure ML)
七大組件:
- 錯誤分析 2. 模型總覽 3. 資料探索 4. 公平性評估 5. 模型可解釋性 6. 反事實分析 7. 因果推論
💡 考試重點:六大原則各自的定義與應用場景、EU AI Act 風險分類、反事實分析 vs 因果推論的差異