AI|私隱署發指引 助機構制定僱員使用生成式AI政策
撰文: 吳穎嵛
發布時間: 2025/03/31 12:12
最後更新: 2025/03/31 12:59
▲ (左起)首席個人資料主任(合規及查詢)郭正熙、個人資料私隱專員鍾麗玲、私隱專員公署科技發展常務委員會委員、立法會議員黃錦輝。(吳穎嵛攝)
私隱專員公署今日(31日)發表《僱員使用生成式 AI 的指引清單》,建議機構在制定其僱員使用生成式 AI的指示時,定明獲准使用生成式AI的範圍,以及僱員不能為進行非法或有害的活動使用生成式AI 工具。
私隱署調查顯示,69%受私隱專員公署今日(31日)發表《僱員使用生成式 AI 的指引清單》訪企業認為於公司營運中使用人工智能(AI)帶來私隱風險,生成式AI亦在新興技術中存在最高私隱風險;而65%企業有採用數據安全防護措施。
《指引》建議,機構在制定其僱員使用生成式 AI 的內部政策或指引時,定明獲准使用生成式AI的範圍,包括公眾可用或內部開發的生成式 AI工具,以及獲准許的用途,例如起草、總結資訊、生成文本等,以及政策或指引適用的對象。機構亦應提供清晰指示,說明可輸入至生成式 AI 工具的資訊種類及數量,例如是否包含個人資料或其他資料、輸出資訊的獲准許用途、輸出資訊的獲准許儲存方式、所適用的資料保留政策,以及其他須遵從的相關內部政策。
《指引》亦建議訂明,僱員不能為進行非法或有害的活動使用生成式AI 工具,並強調僱員有責任透過校對及查核事實等方式核實AI 生成的結果是否準確、有責任更正及報告帶有偏見或歧視的AI 生成結果。《指引》亦應訂明僱員可用哪些裝置來取用生成式 AI工具、獲准許可使用生成式AI工具的僱員類別,例如有工作需要、曾接受相關培訓及已獲事先批准的僱員,並要求僱員使用高強度的用戶憑證、在生成式 AI 工具保持嚴格的保安設定,以及根據機構的 AI 事故應變計劃報告AI事故。
《指引》建議機構提高政策或指引的透明度,定期向僱員傳達政策或指引,並及時告知僱員任何更新;同時教育僱員如何有效及負責任地使用生成式 AI工具,包括說明工具的能力及限制,提供實務建議及例子和鼓勵僱員閱讀工具的私隱政策及使用條款等。
🎓全新TOPSchool全港中小學校搜尋器,入HKET App即睇!
下載HKET App,追蹤TOPick WhatsApp頻道,睇全方位資訊: