您當(dāng)前的位置:檢測(cè)資訊 > 法規(guī)標(biāo)準(zhǔn)
嘉峪檢測(cè)網(wǎng) 2026-02-01 11:23
隨著人工智能技術(shù)的飛速發(fā)展,其在各行各業(yè)的應(yīng)用日益廣泛,為人類社會(huì)帶來了前所未有的變革與機(jī)遇。然而,人工智能技術(shù)的廣泛應(yīng)用也伴隨著諸多社會(huì)挑戰(zhàn),如數(shù)據(jù)隱私泄露、算法偏見、自動(dòng)化決策的不透明性等。這些問題不僅影響了人工智能技術(shù)的可信度,還可能對(duì)人類社會(huì)造成潛在危害。因此,如何確保人工智能技術(shù)的負(fù)責(zé)任、可持續(xù)應(yīng)用,成為了全球關(guān)注的焦點(diǎn)。ISO/IEC 42001:2023人工智能管理體系標(biāo)準(zhǔn)正是在這一背景下應(yīng)運(yùn)而生,它提供了一個(gè)讓組織能夠負(fù)責(zé)任地開發(fā)、提供和使用人工智能系統(tǒng)的管理體系框架。本文通過人工智能風(fēng)險(xiǎn)分析,結(jié)合ISO/IEC 42001標(biāo)準(zhǔn)的管理體系方法,解析如何應(yīng)對(duì)人工智能風(fēng)險(xiǎn)。
一、人工智能風(fēng)險(xiǎn)識(shí)別
(一)技術(shù)風(fēng)險(xiǎn)
人工智能本身的技術(shù)邏輯及其應(yīng)用過程存在不確定性,可能引發(fā)數(shù)據(jù)、算法和模型風(fēng)險(xiǎn)。數(shù)據(jù)的數(shù)量或質(zhì)量問題可能導(dǎo)致人工智能系統(tǒng)無法反映現(xiàn)實(shí)世界的真實(shí)情況;算法“黑箱”和不可解釋性問題在容錯(cuò)率低的行業(yè),甚至可能造成不可挽回的安全隱患;模型完整性攻擊,即對(duì)抗攻擊,可能干擾模型的學(xué)習(xí)和預(yù)測(cè)過程,誤導(dǎo)人工智能錯(cuò)誤識(shí)別。2018年Goodfellow團(tuán)隊(duì)通過對(duì)貓咪原圖加入對(duì)抗干擾,生成的圖像無論是神經(jīng)網(wǎng)絡(luò)還是人類觀察者都會(huì)誤認(rèn)為是狗。這表明對(duì)抗樣本技術(shù)已經(jīng)發(fā)展到可以同時(shí)誤導(dǎo)人工智能系統(tǒng)和人類視覺感知的程度,實(shí)現(xiàn)了真正意義上的“指鹿為馬”。
(二)法律與倫理風(fēng)險(xiǎn)
人工智能的廣泛應(yīng)用可能衍生技術(shù)濫用、數(shù)據(jù)安全、隱私保護(hù)等方面的安全挑戰(zhàn),給公民的信息安全、財(cái)產(chǎn)安全甚至生命安全造成威脅。當(dāng)人工智能系統(tǒng)出錯(cuò)或造成損害時(shí),責(zé)任歸屬成為一項(xiàng)復(fù)雜的法律難題。例如,自動(dòng)駕駛汽車發(fā)生事故時(shí),究竟是由開發(fā)者、運(yùn)營(yíng)商還是用戶承擔(dān)責(zé)任仍然不明確。人工智能技術(shù)的發(fā)展在很大程度上依賴于用戶數(shù)據(jù),而這些數(shù)據(jù)往往是個(gè)人隱私的重要組成部分。例如,監(jiān)控技術(shù)(如面部識(shí)別)與大數(shù)據(jù)分析工具的發(fā)展,對(duì)隱私權(quán)的干預(yù)也愈發(fā)明顯。
(三)社會(huì)公平風(fēng)險(xiǎn)
算法偏見與歧視會(huì)引發(fā)社會(huì)公平風(fēng)險(xiǎn)。如果人工智能系統(tǒng)有訓(xùn)練數(shù)據(jù)或設(shè)計(jì)缺陷,會(huì)加劇社會(huì)不公。例如,人工智能招聘工具,因訓(xùn)練數(shù)據(jù)以男性簡(jiǎn)歷為主,導(dǎo)致對(duì)女性求職者的評(píng)分系統(tǒng)性降低;某些司法系統(tǒng)使用人工智能輔助判決,但由于算法黑箱問題,被告無法了解判決依據(jù),可能導(dǎo)致某些群體(如少數(shù)族裔)受到不公平的判決;電商平臺(tái)使用人工智能算法進(jìn)行價(jià)格歧視,根據(jù)用戶的購(gòu)買歷史和行為習(xí)慣動(dòng)態(tài)調(diào)整價(jià)格,導(dǎo)致某些用戶支付更高的價(jià)格。
(四)就業(yè)與經(jīng)濟(jì)風(fēng)險(xiǎn)
人工智能可能取代一些傳統(tǒng)行業(yè)的崗位(如制造業(yè)、客服等),導(dǎo)致大量失業(yè)。隨著技術(shù)進(jìn)步,部分傳統(tǒng)技能可能變得過時(shí),勞動(dòng)者需要不斷更新技能以適應(yīng)變化。例如,通過人工智能機(jī)器人分揀貨物,效率提升但減少了人力需求;聊天機(jī)器人(如Open人工智能的ChatGPT)取代人工客服,導(dǎo)致全球客服崗位縮減。又如人工智能技術(shù)可能被少數(shù)大公司壟斷,加劇社會(huì)經(jīng)濟(jì)不平等。
(五)環(huán)保風(fēng)險(xiǎn)
人工智能模型(如大語言模型和視覺模型)的訓(xùn)練和運(yùn)行需要大量算力支持,這通常依賴于數(shù)據(jù)中心和高性能計(jì)算設(shè)備。這些設(shè)施的運(yùn)行需要大量電力,可能導(dǎo)致能源消耗激增。例如,大模型訓(xùn)練中訓(xùn)練GPT-3消耗的電力約等于1200個(gè)美國(guó)家庭一年的用電量,碳排放量達(dá)552噸。比特幣挖礦中人工智能優(yōu)化的挖礦算法加劇能源浪費(fèi),部分國(guó)家因此限制加密貨幣交易。
(六)開展人工智能風(fēng)險(xiǎn)分析和風(fēng)險(xiǎn)評(píng)價(jià)
在人工智能生命周期活動(dòng)中,應(yīng)用風(fēng)險(xiǎn)管理方法進(jìn)行風(fēng)險(xiǎn)識(shí)別、風(fēng)險(xiǎn)分析和風(fēng)險(xiǎn)評(píng)價(jià),是應(yīng)對(duì)人工智能風(fēng)險(xiǎn)的有效措施。在人工智能體系建立過程中,進(jìn)行風(fēng)險(xiǎn)評(píng)估的實(shí)際意義在于幫助組織識(shí)別和緩解與人工智能實(shí)施相關(guān)的風(fēng)險(xiǎn),確保采取適當(dāng)?shù)木徑獯胧?。ISO/IEC 42001標(biāo)準(zhǔn)提供了從風(fēng)險(xiǎn)評(píng)估到有效處理這些風(fēng)險(xiǎn)的綜合方法。通過風(fēng)險(xiǎn)評(píng)估,組織能夠更好地理解人工智能系統(tǒng)可能帶來的潛在風(fēng)險(xiǎn),并制定相應(yīng)的預(yù)防和應(yīng)對(duì)措施,從而保護(hù)組織和利益相關(guān)方免受損害。
在人工智能風(fēng)險(xiǎn)評(píng)估中,組織要結(jié)合自身角色和人工智能生命周期活動(dòng),識(shí)別人工智能存在哪些風(fēng)險(xiǎn)以及這些風(fēng)險(xiǎn)對(duì)相關(guān)方和社會(huì)造成的潛在后果。制定風(fēng)險(xiǎn)評(píng)價(jià)準(zhǔn)則,針對(duì)風(fēng)險(xiǎn)的后果嚴(yán)重性和發(fā)生的可能性進(jìn)行風(fēng)險(xiǎn)評(píng)價(jià),確定各風(fēng)險(xiǎn)項(xiàng)等級(jí)并進(jìn)行優(yōu)先排序,由此明確組織需要重點(diǎn)管理的風(fēng)險(xiǎn)項(xiàng)。針對(duì)中高風(fēng)險(xiǎn)項(xiàng),組織選擇適當(dāng)?shù)娜斯ぶ悄茱L(fēng)險(xiǎn)應(yīng)對(duì)方案(如風(fēng)險(xiǎn)降低、風(fēng)險(xiǎn)轉(zhuǎn)移、風(fēng)險(xiǎn)規(guī)避、風(fēng)險(xiǎn)接受等),確定實(shí)施方案必要的控制措施。如醫(yī)院部署人工智能輔助診斷系統(tǒng)用于肺部CT影像的肺癌篩查,但可能會(huì)因訓(xùn)練數(shù)據(jù)偏差(樣本中早期肺癌病例不足)導(dǎo)致模型對(duì)早期肺癌的識(shí)別準(zhǔn)確率下降,產(chǎn)生“誤診導(dǎo)致患者延誤治療”風(fēng)險(xiǎn)。根據(jù)風(fēng)險(xiǎn)評(píng)價(jià)準(zhǔn)則,評(píng)價(jià)結(jié)果為高風(fēng)險(xiǎn)。醫(yī)院采取引入合成數(shù)據(jù)增強(qiáng)技術(shù),平衡早期/晚期肺癌樣本比例,增加邊緣案例測(cè)試(如微小肺結(jié)節(jié)識(shí)別),部署實(shí)時(shí)性能監(jiān)控儀表盤,來降低誤診風(fēng)險(xiǎn)。
二、人工智能風(fēng)險(xiǎn)應(yīng)對(duì)
針對(duì)人工智能帶來的種種社會(huì)挑戰(zhàn)風(fēng)險(xiǎn),ISO/IEC 42001:2023標(biāo)準(zhǔn)應(yīng)運(yùn)而生。標(biāo)準(zhǔn)旨在為組織提供一個(gè)系統(tǒng)化的管理框架,幫助組織在開發(fā)、提供和使用人工智能系統(tǒng)時(shí),兼顧技術(shù)發(fā)展與社會(huì)責(zé)任。
ISO/IEC 42001:2023標(biāo)準(zhǔn)借鑒了ISO 9001質(zhì)量管理體系和ISO 27001信息安全管理體系的成功經(jīng)驗(yàn),提供了一套基于PDCA(策劃—實(shí)施—檢查—改進(jìn))循環(huán)的管理方法。標(biāo)準(zhǔn)特別強(qiáng)調(diào)組織角色、文化、能力和治理在人工智能管理中的作用,要求組織將人工智能管理融入其整體戰(zhàn)略和日常運(yùn)營(yíng)。標(biāo)準(zhǔn)通過目標(biāo)管理、風(fēng)險(xiǎn)管理和生命周期管理等方法對(duì)人工智能風(fēng)險(xiǎn)進(jìn)行了體系化管理和持續(xù)改進(jìn)。例如,標(biāo)準(zhǔn)不僅關(guān)注人工智能系統(tǒng)的開發(fā)和部署,還涵蓋從設(shè)計(jì)到退役的全生命周期管理,確保每個(gè)環(huán)節(jié)都能符合倫理和可持續(xù)性要求。
為了有效管理人工智能風(fēng)險(xiǎn),組織應(yīng)在以下幾個(gè)方面進(jìn)行策劃并提出應(yīng)對(duì)措施:
(一)明確組織自身的角色
標(biāo)準(zhǔn)在“4.1理解組織及環(huán)境”條款中明確要求“組織應(yīng)確定其在人工智能系統(tǒng)中的角色”。在整個(gè)人工智能生態(tài)系統(tǒng)中,組織的角色包括人工智能提供商,如人工智能平臺(tái)提供商、人工智能產(chǎn)品或服務(wù)提供商;人工智能生產(chǎn)者,如人工智能開發(fā)和設(shè)計(jì)者、運(yùn)營(yíng)商、測(cè)試和評(píng)估機(jī)構(gòu);人工智能合作伙伴,如人工智能系統(tǒng)集成商、數(shù)據(jù)提供商等;人工智能主體,包括數(shù)據(jù)主體和其他主體等。角色的確定是人工智能管理體系策劃的關(guān)鍵環(huán)節(jié)。因?yàn)樾枰鶕?jù)其在人工智能系統(tǒng)中的角色,確定相應(yīng)的法律、倫理和道德要求;同時(shí)不同角色對(duì)應(yīng)不同的風(fēng)險(xiǎn)和責(zé)任,明確角色有助于組織更好地識(shí)別和管理風(fēng)險(xiǎn),界定各方的責(zé)任和義務(wù)。
因此組織要根據(jù)其核心業(yè)務(wù)和人工智能技術(shù)的應(yīng)用場(chǎng)景,確定其在人工智能生態(tài)系統(tǒng)中的角色,并分析相關(guān)的合規(guī)義務(wù)和風(fēng)險(xiǎn)管理要求。例如,作為人工智能提供商,組織需要確保其提供的人工智能系統(tǒng)符合相關(guān)法律法規(guī);作為人工智能客戶,組織需要確保其使用人工智能系統(tǒng)的方式合法合規(guī)。作為人工智能開發(fā)者,需要關(guān)注算法偏見和數(shù)據(jù)隱私風(fēng)險(xiǎn);作為人工智能用戶,需要關(guān)注人工智能系統(tǒng)的可靠性和倫理問題。
(二)確定人工智能風(fēng)險(xiǎn)管理目標(biāo)
確定人工智能風(fēng)險(xiǎn)管理目標(biāo)的意義在于為組織提供了明確的方向和優(yōu)先級(jí)。通過設(shè)定具體的目標(biāo),組織可以集中資源和注意力應(yīng)對(duì)那些最有可能影響其業(yè)務(wù)的關(guān)鍵風(fēng)險(xiǎn)。這有助于組織更有效地分配資源,確保風(fēng)險(xiǎn)管理措施與組織的整體戰(zhàn)略和目標(biāo)保持一致。
目標(biāo)的制定基于人工智能風(fēng)險(xiǎn)評(píng)價(jià)的結(jié)果。目標(biāo)的制定可涉及人工智能的訓(xùn)練和測(cè)試數(shù)據(jù)的可用性和質(zhì)量、安全性、透明度和可解釋性、魯棒性、環(huán)境影響、可維護(hù)性、隱私性、信息安全、公平性等。例如,在人工智能領(lǐng)域,魯棒性的目標(biāo)是確保模型在面對(duì)各種不確定性、噪聲或異常值時(shí)仍能保持良好的性能。例如,在自動(dòng)駕駛汽車的應(yīng)用中,一個(gè)具有高魯棒性的系統(tǒng)能夠在多種復(fù)雜條件下安全穩(wěn)定地運(yùn)行。假設(shè)一輛自動(dòng)駕駛汽車在高速公路行駛時(shí)天氣晴朗則表現(xiàn)良好,但當(dāng)遇到突然的大雨、大雪、攝像頭因污漬模糊或GPS信號(hào)丟失的情況下,系統(tǒng)是否能夠繼續(xù)安全地完成駕駛?cè)蝿?wù),就依賴于其魯棒性的高低。
人工智能量化的目標(biāo)設(shè)置可以是算法偏見消除率,第三方供應(yīng)商合規(guī)審計(jì)覆蓋率,高風(fēng)險(xiǎn)人工智能決策可解釋性覆蓋率,對(duì)抗樣本防御成功率,數(shù)據(jù)隱私合規(guī)率,碳排放強(qiáng)度年降幅等。
(三)進(jìn)行人工智能生命周期控制
人工智能的生命周期活動(dòng)包括規(guī)劃與設(shè)計(jì)階段、開發(fā)與驗(yàn)證階段、部署階段、運(yùn)行與監(jiān)控階段、維護(hù)與優(yōu)化階段、退役與改進(jìn)階段。對(duì)人工智能生命周期活動(dòng)進(jìn)行控制不僅能夠保證人工智能系統(tǒng)的高質(zhì)量輸出,還能有效應(yīng)對(duì)各種挑戰(zhàn),包括但不限于數(shù)據(jù)質(zhì)量問題、安全性隱患、法律合規(guī)需求等,最終實(shí)現(xiàn)更高效、更可靠的人工智能解決方案。
基于人工智能生命周期活動(dòng)風(fēng)險(xiǎn)評(píng)價(jià)的結(jié)果,制定控制措施,規(guī)定人工智能生命周期各階段的準(zhǔn)則和要求。例如,人工智能生命周期中,規(guī)定數(shù)據(jù)管理要求是非常重要的過程,涉及數(shù)據(jù)采集、處理、存儲(chǔ)、應(yīng)用。良好的控制可確保數(shù)據(jù)質(zhì)量、準(zhǔn)確性以及數(shù)據(jù)安全和隱私保護(hù),同時(shí)提升模型性能與效率。再如,部署階段會(huì)將算法從受控環(huán)境轉(zhuǎn)移到真實(shí)環(huán)境中使用。在此過程中,需要制定詳細(xì)的安裝計(jì)劃,準(zhǔn)備好必要的文件和程序清單,并對(duì)可能出現(xiàn)的結(jié)果進(jìn)行說明準(zhǔn)備。維護(hù)階段在部署算法后開始,持續(xù)到算法停用為止。此階段的工作內(nèi)容包括但不限于監(jiān)控系統(tǒng)狀態(tài)、更新軟件版本、處理突發(fā)故障等,以保證人工智能系統(tǒng)的長(zhǎng)期有效運(yùn)作。
三、實(shí)施ISO/IEC 42001人工智能管理體系的價(jià)值
首先,體系通過人工智能風(fēng)險(xiǎn)識(shí)別、分析和評(píng)價(jià),制訂應(yīng)對(duì)風(fēng)險(xiǎn)的方案和措施,有效降低人工智能開發(fā)中的倫理、隱私和安全等風(fēng)險(xiǎn),確保技術(shù)應(yīng)用的可靠性與可控性。其次,滿足全球監(jiān)管要求(如歐盟《人工智能法案》),規(guī)避法律風(fēng)險(xiǎn),同時(shí)通過國(guó)際認(rèn)證向客戶及投資者證明人工智能系統(tǒng)的合規(guī)性與道德承諾,顯著提升市場(chǎng)信任度。再次,明確人工智能開發(fā)目標(biāo)與生命周期活動(dòng)管理,規(guī)范數(shù)據(jù)、算法和資源的管理,減少重復(fù)性試錯(cuò)成本,加速技術(shù)落地效率,推動(dòng)可持續(xù)創(chuàng)新。

來源:中國(guó)認(rèn)證認(rèn)可