AI在金融持牌公司的使用场景:
①過對外開放的聊天機械人回應,②客戶查詢,③總結資料,④生成研究報告,⑤在投資決策過程中識別投資訊號,⑥或在開發軟件應用程式的過程中生成電腦代碼。
--
AI语言模型的风险:
①AI 語言模型的輸出內容可能不準確、存在偏見、不可靠及不一致,例如:
a.幻覺風險(hallucination risk),即就使用者的查詢提供看似可信但實際上錯誤的回應,當中包括有系統地附和使用者的意見,而不顧使用者的陳述是否準確;
b.偏頗、 不恰當或具歧視性的輸出內容,即在用作訓練AI語言模型的數據中,在輸入表示(input representation, 即將數據轉換成數字輸入值,以灌輸至有關模型內)中,以及在模型開發者的假設、模型設計及實施選項中,均可能存在偏見;及
c.AI 語言模型的效能可能會隨時間而漂移(drift)並下降,以致不能再發 揮其原先設計的用途。
②涉及網絡攻擊,不慎洩露與機構或其客戶有關的機密資料,以及違反個人資料私隱和知識產權法例方面的風險;
③有機構可能依賴外部服務提供者開發、訓練及維持AI語言模型。鑑於這類外部
服務提供者為數有限,故一旦發生系統無法使用的情況,有關機構便會面臨集
中風險,且它們在運作上的抵禦能力亦恐會受到影響。
--
AI风险规避措施的适用范围:
若持牌法團使用AI語言模型或以AI語言模型為基礎的第三方產品提供與其受規管活動 有關的服務或功能,本通函內的規定便適用於它們。無論AI語言模型是由持牌法團本身、其集團公司、外部服務提供者(第三方提供者)開發或提供,或者是來自開放來 源,本通函一概適用。
--
第1項核心原則:高級管理層的責任
①全周期保障所需的程序和资源:模型的生命周期涵蓋模型開發(即設計、實施、量身訂製、訓練、測試和校正)及模型管理(即驗證、審批、持續檢討和監察,以至其使用和停用)。【法律及合規部門應從合規風險的角度評估AI語言模型的使用情況,包括AI語言模型的運用是否有可能妨礙持牌法團遵守適用的法律及監管規定。】
--
第2項核心原則:AI模型風險管理
①风险舒缓措施:a.對AI語言模型的效能進行模型驗證、持續檢討和監察,以將該模型的事實準確性提升至與有關特定用例相稱的水平; b.在將AI語言模型的輸出內容轉達給使用者前,在過程中應有人員負責處理幻覺風險和檢視有關內容的事實準確性;c.測試輸出內容在提示變化下的穩妥性,因為據報AI語言模型可能會根據意思相同的文字輸入內容生成不同的預測;及 4.每當客戶與AI語言模型互動時,作出第17段所述的披露【說明他們正在與AI(而非真人)互動,且由AI語言模型產生的輸出內容未必準確】(而非事前作出一次性披露)。
--
第3項核心原則:網絡保安及數據風險管理
①持牌法團應在切實可行的範圍內定期對AI語言模型進行 對抗性測試,以提升該等模型抵禦對抗性攻擊的能力及保護它們免受攻擊。
②持牌法團應對靜態和傳輸中的非公開數據進行加密,以確保數據的保密性和安全性。
--
第 4項核心原則:第三方提供者風險管理
①當持牌法團在透明度或所擁有的資料有限的情況下對第三方提供者的AI語言模型進行模型驗證時,該法團應評估(i)(在切實可行的範圍內)第三方提供者本身是否設有有效的模型風險管理框架,及(ii)AI語言模型的輸出和效能是否適合該法團的特定用例,包括考慮與其用例有關的模型風險,及在適當時採取風險 ;
②就數據管理而言,持牌法團應評估如第三方提供者發生違反適用的個人資料的情況,是否可能會對該法團或其用例造成重大不利影響, 以及評估該提供者是否設有措施,以保障該法團不會因其在任何被指違反上述 法例的情況下使用AI語言模型而被提出法律行動或申索,或就此向該法團作出 彌償。