AI 資料隱私服務概覽
AI 使用率正在急劇成長,但疑慮依然存在 ── 根據 2023 年的一項研究,全球有 57% 的消費者認為 AI 對隱私構成重大威脅。1基於各式各樣的理由,客戶擔心自身的個人識別資訊是否有受到妥善處理。
而建立信任成為利害關係人的關鍵要素,因為在 AI 與資料隱私議題上,他們面對的是抱持懷疑的絕大多數。
UL Solutions 的資料隱私計畫隸屬於我們應用於 AI 安全評估的 11 項安全原則之一 ── 歸類於道德性 AI 應用這個面向。對此,我們採用一套全面性框架,驗證是否對資料隱私的保護已採取適當的安全機制,主要側重於用於蒐集、儲存、保護與揭露使用者資料的 AI 演算法。完成評估後,如符合條件,可獲得 UL Solutions 所發出的行銷宣告檢測驗證證書與 UL 驗證標誌。
付諸 AI 資料隱私可帶來的效益
隨著 AI 應用日益普及,信任要素變得越來越重要。身為全球安全科學專家,我們的客觀評估可深化信任,使外界相信品牌行銷宣告是可靠、真實與可信的。
AI 資料隱私驗證流程的目標
資料隱私評估旨在驗證個人識別資訊 (PII) 或供多種 AI 模型使用的機密資料不會離開電腦,或已獲適當的安全措施予以保護。
檢測驗證流程
UL Solutions 已建立特定流程,用以評估客戶是否對資料隱私的保護採取了適當的安全機制。我們的方法包括:
資料蒐集與同意
驗證資料蒐集僅限於滿足既定使用案例所需的最低程度,並確認資料是已在個人知情同意的情況下取得。
資料匿名處理與假名化保護
評估匿名化與假名化等技術的應用,以及在避免資料被重新識別上的成效。
資料儲存與存取控管
所施以的加密技術能確保資料安全儲存,以及採用的存取控制機制僅授權人員能存取,與稽核日誌的維護以監控資料存取並偵測未經授權行為。
資料處理與使用
明確定義資料處理目的,並證明資料實際用途是與目的相符,其落實最低權限原則的同時,保存資料處理活動記錄。
資料共享與傳輸
建立安全資料共享的作業規範,包括加密與安全傳輸機制,同時幫助確保並證明資料接收的第三方遵循相同或更嚴格的資料隱私標準。
模型訓練與驗證
在模型訓練過程中採用「差分隱私」這類的等技術,並透過具隱私保護方法進行模型驗證,確保所用的模型不會記憶或洩露敏感資訊之虞。
模型部署與推論
在推論階段進行的資料外洩風險評估 ── 尤當 AI 模型透過 API 對外提供存取的情況下,並實施速率限制與嚴密監控,以防濫用模型推論進行資料擷取。
事件回應與資料外洩管理
制定並持續維護資料外洩事件的應變計畫,亦對員工進行資料外洩處理的培訓,並能在發生資料外洩時即時通知受影響的個人與主管機關。
透明度與問責機制
評估客戶是否向使用者透明揭露資料的使用方式與用途,並建立使用者可存取、修正或刪除其資料的機制。同時,能於企業內部明確劃分責任歸屬,以全面落實資料隱私相關事宜的問責。
持續監控與改善 (持續進行)
持續監控 AI 系統,以識別是否存在潛在的隱私風險或資料外洩情形,包括採用最新的隱私強化技術,並檢視企業內部的隱私與資料保護文化。
符合法規要求與稽核 (持續進行)
定期稽核 AI 系統,以確保其符合資料隱私的相關法規與內部政策,可包括必要時所執行的資料保護影響評估 (DPIA),藉此依據新法規、潛在弱點或最新的隱私強化技術,評估企業是否施行並適時更新隱私實務。
探索我們的 AI 檢測與驗證服務
與我們的團隊取得聯絡
驗證是否已針對資料隱私的保護施以適當的安全機制。