您當前的位置:檢測資訊 > 法規(guī)標準
嘉峪檢測網(wǎng) 2025-03-24 08:48
隨著人工智能(AI)越來越多地融入商業(yè)運營,道德問題、監(jiān)管合規(guī)性和風險管理變得越來越突出。由國際標準化組織(ISO)和國際電工委員會(IEC)制定的ISO/IEC 42001:2023標準建立了人工智能治理的框架。這是全球首個人工智能管理體系標準。
ISO/IEC 42001 標準概述
ISO/IEC 42001 是一項國際標準,它規(guī)定了在組織內部建立、實施、維持以及持續(xù)改進人工智能管理系統(tǒng)(AIMS)的要求。該標準的適用對象為提供或使用基于人工智能的產品或服務的實體,滿足該標準可以確保這些實體負責任地開發(fā)和使用人工智能系統(tǒng)。
ISO/IEC 42001針對人工智能所帶來的獨特挑戰(zhàn),如倫理考量、透明度以及持續(xù)學習等方面提出了要求。
ISO/IEC 42001的關鍵要求
1、組織的環(huán)境
1) 識別影響人工智能管理的內部和外部因素;
2) 確定人工智能治理的范圍;
3) 認識利益相關者及其期望。
2、領導力和承諾
1) 建立人工智能治理策略;
2) 確保與組織目標保持一致;
3) 為人工智能監(jiān)督分配角色和職責。
3、人工智能風險管理
1)進行人工智能特有的風險評估;
2)解決道德問題、網(wǎng)絡安全風險和法規(guī)符合性挑戰(zhàn);
3)實施記錄在案的風險處理計劃。
4、人工智能系統(tǒng)影響評估
1)評估人工智能對個人、社會和企業(yè)的影響;
2)識別潛在的偏見和公平問題;
3)記錄緩解策略。
5、數(shù)據(jù)管理和質量保證
1)確保人工智能訓練數(shù)據(jù)可靠、公正、合法;
2)管理數(shù)據(jù)來源和加工流轉路徑;
3)實施持續(xù)人工智能監(jiān)控流程。
6、性能監(jiān)測和持續(xù)改進
1)建立人工智能有效性的關鍵性能指標;
2)為合規(guī)性驗證進行內部審核;
3)使人工智能治理策略適應不斷發(fā)展的風險和法規(guī)。
實施ISO/IEC 42001的步驟
為了成功實施ISO/IEC 42001,組織應:
1、進行準備情況評估: 評估當前的人工智能政策和治理框架。
2、定義AI管理范圍: 確定哪些AI系統(tǒng)和流程需要遵從。
3、制定人工智能政策和風險管理計劃:建立符合ISO/IEC 42001要求的指導方針。
4、培訓員工: 確保員工理解他們在AI治理中的角色。
5、監(jiān)控和改進: 定期檢查AI性能,并根據(jù)需要調整治理策略。
此外,國際標準化組織(ISO)制定了多項標準,旨在降低人工智能帶來的風險并最大限度地發(fā)揮其帶來的益處,其中包括:
* ISO/IEC 22989: 確立了人工智能的術語,并對人工智能領域的概念進行了描述;
* ISO/IEC 23053:確立了一個用于描述使用機器學習技術的通用人工智能系統(tǒng)的 AI 和機器學習(ML)框架;
* ISO/IEC 23894:提供了有關人工智能相關風險管理的指導。

來源:醫(yī)療器械法規(guī)資訊