2025可信人工智能治理白皮書(shū)_第1頁(yè)
2025可信人工智能治理白皮書(shū)_第2頁(yè)
2025可信人工智能治理白皮書(shū)_第3頁(yè)
2025可信人工智能治理白皮書(shū)_第4頁(yè)
2025可信人工智能治理白皮書(shū)_第5頁(yè)
已閱讀5頁(yè),還剩42頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

版權(quán)聲明COPYRIGHT

STATEMENT本報(bào)告版權(quán)屬于出品方所有,并受法律保護(hù)。轉(zhuǎn)載、摘編或利用其

他方式使用報(bào)告文字或者觀(guān)點(diǎn)的,應(yīng)注明來(lái)源。違反上述聲明者,

本單位將追究其相關(guān)法律責(zé)任。出品方安永(中國(guó))企業(yè)咨詢(xún)有限公司

上海市人工智能與社會(huì)發(fā)展研究會(huì)21世紀(jì)人類(lèi)社會(huì)迎來(lái)了前所未有的技術(shù)革命——人工智能(AI)的興起。它以迅雷不

及掩耳之勢(shì),滲透到我們生活的方方面面,重塑著我們的認(rèn)知和社會(huì)格局。它不僅極大地

提高了生產(chǎn)效率,還為解決復(fù)雜的社會(huì)問(wèn)題提供了新的視角和工具。然而,隨著AI技術(shù)的迅猛發(fā)展,其所帶來(lái)的倫理、法律和社會(huì)問(wèn)題也日益凸顯,

如何確保AI技術(shù)的“可信”屬性,

成為全球關(guān)注的焦點(diǎn)。在此背景下,

《可信人工智能治理白皮書(shū)》應(yīng)運(yùn)而生。本白皮書(shū)由安永(中國(guó))企業(yè)咨詢(xún)有限公司和上海市人工智能社會(huì)發(fā)展研究會(huì)聯(lián)合撰寫(xiě),

旨在深入探討人工智能的全球發(fā)展態(tài)勢(shì)、監(jiān)管體系、可信原則、關(guān)鍵問(wèn)題、企業(yè)合規(guī)要求、風(fēng)險(xiǎn)治理理論、進(jìn)階工具以及行業(yè)洞察等多個(gè)方面。我們希望通過(guò)這份白皮書(shū),

為政策制定者、企業(yè)管理者、技術(shù)開(kāi)發(fā)者以及所有關(guān)心AI發(fā)展的讀者,提供一份全面、深入、客觀(guān)的參考和指導(dǎo)。在這份白皮書(shū)中,我們將重點(diǎn)探討“可信人工智能”的內(nèi)涵,分析其在算法透明度、數(shù)

據(jù)安全、倫理道德等方面所面臨的挑戰(zhàn)。同時(shí),我們也將關(guān)注企業(yè)在A(yíng)I應(yīng)用中的合規(guī)要求以及風(fēng)險(xiǎn)治理這一AI發(fā)展中的重要議題。本白皮書(shū)將詳細(xì)闡述風(fēng)險(xiǎn)治理架構(gòu)的構(gòu)建,以及

如何在A(yíng)I的生命周期中實(shí)施有效的風(fēng)險(xiǎn)管理。此外,我們還將介紹企業(yè)AI治理的進(jìn)階工具——可信AI等級(jí)標(biāo)識(shí),為企業(yè)構(gòu)建和完善自身的AI治理體系提供實(shí)用的指導(dǎo)。在提供有效的

AI治理工具的同時(shí),我們也將聚焦具有啟發(fā)性的行業(yè)實(shí)踐。我們將深入

分析汽車(chē)、醫(yī)藥、零售、服務(wù)等行業(yè)在A(yíng)I應(yīng)用上的現(xiàn)狀和挑戰(zhàn),以及這些行業(yè)如何構(gòu)建和

運(yùn)營(yíng)自己的AI管理體系。通過(guò)這些行業(yè)案例,我們希望能夠?yàn)樽x者提供具體的行業(yè)應(yīng)用視角,以及在實(shí)際操作中可能遇到的問(wèn)題和解決方案。在這份白皮書(shū)的撰寫(xiě)過(guò)程中,我們深刻感受到

AI

技術(shù)的發(fā)展不僅僅是技術(shù)層面的突破,

更是對(duì)人類(lèi)社會(huì)價(jià)值觀(guān)、倫理道德和法律體系的一次全面考驗(yàn)。我們相信,只有通過(guò)不斷提高對(duì)風(fēng)險(xiǎn)的把控能力,預(yù)判、分析和應(yīng)對(duì)潛在的治理問(wèn)題,建立起一套公正、透明、高效的AI治理體系,才能確保AI技術(shù)的健康發(fā)展,讓它成為推動(dòng)人類(lèi)社會(huì)進(jìn)步的正能量。在此,我們誠(chéng)摯地邀請(qǐng)您一同走進(jìn)AI的世界,探索其無(wú)限可能,同時(shí)也思考和面對(duì)它

所帶來(lái)的挑戰(zhàn)。讓我們攜手前行,在A(yíng)I的時(shí)代中,共同尋找可信AI實(shí)現(xiàn)的最佳路徑。前言FOREWORD第一章全球人工智能發(fā)展與監(jiān)管體系1.1全球人工智能發(fā)展概述1.1.1

歐盟人工智能發(fā)展1.1.2美國(guó)人工智能發(fā)展1.1.3

中國(guó)人工智能發(fā)展1.2“可信人工智能”概念提出第二章人工智能的可信原則2.1G20人工智能可信原則2.2歐盟可信人工智能原則2.3安永觀(guān)點(diǎn):可信人工智能原則第三章可信人工智能的關(guān)鍵問(wèn)題3.1算法黑箱與信息繭房問(wèn)題3.2算法偏見(jiàn)問(wèn)題3.3數(shù)據(jù)安全問(wèn)題3.3.1底層數(shù)據(jù)源3.3.2數(shù)據(jù)泄露3.3.3

出海涉及相關(guān)數(shù)據(jù)出境規(guī)制3.4

內(nèi)生安全問(wèn)題3.4.1人工智能基礎(chǔ)設(shè)施安全風(fēng)險(xiǎn)3.4.2數(shù)據(jù)安全風(fēng)險(xiǎn)3.4.3模型安全風(fēng)險(xiǎn)3.4.4應(yīng)用服務(wù)安全風(fēng)險(xiǎn)3.5科技倫理問(wèn)題第四章企業(yè)級(jí)AI的合規(guī)要求4.1資質(zhì)監(jiān)管要求4.1.1互聯(lián)網(wǎng)信息服務(wù)提供者的基礎(chǔ)資質(zhì)4.1.2提供具體服務(wù)的特殊資質(zhì)4.2算法合規(guī)要求4.2.1算法備案要求4.2.2算法評(píng)估要求4.2.3算法透明性要求4.3

內(nèi)容合規(guī)要求4.3.1生成內(nèi)容審核義務(wù)4.3.2生成內(nèi)容標(biāo)識(shí)義務(wù)4.3.3建立投訴舉報(bào)機(jī)制11112355668899101010101010111111121212121313131415151616目錄Comtents可信人工智能治理

白皮書(shū)第五章人工智能風(fēng)險(xiǎn)治理5.1風(fēng)險(xiǎn)治理架構(gòu)5.1.1風(fēng)險(xiǎn)治理架構(gòu)對(duì)企業(yè)的指導(dǎo)5.1.2風(fēng)險(xiǎn)治理架構(gòu)對(duì)創(chuàng)新的推動(dòng)5.1.3風(fēng)險(xiǎn)治理架構(gòu)對(duì)市場(chǎng)的維護(hù)5.2生命周期風(fēng)險(xiǎn)治理5.2.1風(fēng)險(xiǎn)管理左移5.2.2敏捷管理模式5.2.3審慎評(píng)估及監(jiān)控5.3人員風(fēng)險(xiǎn)治理第六章企業(yè)

AI治理進(jìn)階工具6.1AI治理國(guó)際標(biāo)準(zhǔn)6.1.1ISO42001

的意義與價(jià)值6.1.2

ISO42001

內(nèi)容簡(jiǎn)介6.2AI治理可信等級(jí)管理6.2.1可信AI治理等級(jí)標(biāo)識(shí)6.2.2可信AI治理等級(jí)標(biāo)識(shí)服務(wù)6.2.3可信AI治理重點(diǎn)領(lǐng)域解析第七章行業(yè)洞察與

AI治理情況調(diào)研7.1汽車(chē)行業(yè)調(diào)研7.1.1汽車(chē)行業(yè)人工智能技術(shù)的應(yīng)用7.1.2汽車(chē)行業(yè)對(duì)人工智能技術(shù)應(yīng)用的普遍認(rèn)知7.1.3汽車(chē)行業(yè)人工智能技術(shù)應(yīng)用的挑戰(zhàn)7.1.4汽車(chē)行業(yè)人工智能管理體系的搭建與運(yùn)營(yíng)7.2

醫(yī)藥行業(yè)調(diào)研7.2.1

醫(yī)藥行業(yè)人工智能技術(shù)的應(yīng)用7.2.2

醫(yī)藥行業(yè)對(duì)人工智能技術(shù)應(yīng)用的普遍認(rèn)知7.2.3

醫(yī)藥行業(yè)人工智能技術(shù)應(yīng)用的挑戰(zhàn)7.2.4

醫(yī)藥行業(yè)人工智能管理體系的搭建與運(yùn)營(yíng)7.3零售行業(yè)調(diào)研7.3.1零售行業(yè)人工智能技術(shù)的應(yīng)用7.3.2零售行業(yè)對(duì)人工智能技術(shù)應(yīng)用的普遍認(rèn)知7.3.3零售行業(yè)人工智能技術(shù)應(yīng)用的挑戰(zhàn)7.3.4零售行業(yè)人工智能管理體系的搭建和運(yùn)營(yíng)17171818191920202122232323242424252528282828292929303030313131323232目錄Comtents可信人工智能治理

白皮書(shū)第七章行業(yè)洞察與

AI治理情況調(diào)研7.4服務(wù)行業(yè)調(diào)研7.4.1服務(wù)行業(yè)人工智能的應(yīng)用7.4.2服務(wù)行業(yè)對(duì)人工智能技術(shù)應(yīng)用的普遍認(rèn)知7.4.3服務(wù)行業(yè)人工智能技術(shù)應(yīng)用的挑戰(zhàn)7.4.4服務(wù)行業(yè)人工智能管理體系的搭建與運(yùn)營(yíng)第八章AI應(yīng)用的典型案例8.1典型案例一:某互聯(lián)網(wǎng)平臺(tái)公司內(nèi)部人工智能技術(shù)應(yīng)用8.1.1人工智能技術(shù)使用現(xiàn)狀8.1.2人工智能模型使用與評(píng)估8.1.3人工智能技術(shù)投入分析8.2典型案例二:典型案例二:某汽車(chē)公司內(nèi)部人工智能技術(shù)應(yīng)用8.2.1人工智能模型使用現(xiàn)狀8.2.2人工智能模型使用與評(píng)估8.2.3人工智能技術(shù)投入分析結(jié)語(yǔ)參考文獻(xiàn)目錄Comtents2833333434353636363637373738383939可信人工智能治理

白皮書(shū)第一章全球人工智能發(fā)展與監(jiān)管體系01當(dāng)前,全球人工智能正處于技術(shù)創(chuàng)新、重塑行業(yè)、重新定義我們與技術(shù)互動(dòng)方式的快速更迭階段。AI技術(shù)已經(jīng)走出實(shí)驗(yàn)室,逐漸嵌入醫(yī)療、金融、零售、制造、交通、娛樂(lè)

等行業(yè)領(lǐng)域的各項(xiàng)應(yīng)用之中,社會(huì)也隨之展開(kāi)深刻變革。據(jù)

Fortune

Business

Insights預(yù)

測(cè),人工智能市場(chǎng)預(yù)計(jì)將在未來(lái)十年內(nèi)出現(xiàn)強(qiáng)勁增長(zhǎng),預(yù)計(jì)將從2024年的6211.9億美元

增長(zhǎng)到2032年27404.6億美元1。面對(duì)這一潛力巨大的顛覆性技術(shù),全球各國(guó)競(jìng)相發(fā)力,

正在共同將人工智能發(fā)展推向時(shí)代浪潮頂峰。PART制,以促進(jìn)自愿適用高風(fēng)險(xiǎn)人工智能系統(tǒng)的部分或全部強(qiáng)制性要求。此外,歐盟委員會(huì)正在制定《人工智能責(zé)任指令》

(Artificial

Intelligence

Liability

Directive),

該指令

草案提出于2022年9月28

日,

旨在為人工智能系

統(tǒng)造成的、非合同類(lèi)責(zé)任的特定類(lèi)型損害提供統(tǒng)

規(guī)則,解決舉證責(zé)任難的問(wèn)題,確保受到人工智能技術(shù)傷害的人能夠獲得經(jīng)濟(jì)補(bǔ)償。該提案共九條,

主要規(guī)定了高風(fēng)險(xiǎn)人工智能提供者的證據(jù)披露義務(wù)、

過(guò)錯(cuò)與

AI輸出之間因果關(guān)系的推定兩方面核心內(nèi)容。1.1.2美國(guó)人工智能發(fā)展美國(guó)正在選擇

種針對(duì)特定行業(yè)的方法

(sector-specific

approach)。2023年9月,

美國(guó)參議員和眾議員提出的《2023年算法問(wèn)責(zé)法案》草

案(AlgorithmicAccountabilityActof2023)為受人

工智能系統(tǒng)影響的人們提供了新的保護(hù)措施。該法案適用于用于關(guān)鍵決策的新型生成式人工智能系統(tǒng),1.1.1歐盟人工智能發(fā)展歐盟《人工智能法案》是全球首部全面且具影

響力的人工智能法規(guī),于

2024

5

21日獲批通過(guò),

并于2024年8月1

日正式生效。該法案將“人工智

能系統(tǒng)”定義為一種基于機(jī)器的系統(tǒng),被設(shè)計(jì)為以不

同程度的自主性運(yùn)行,并且在部署后可能表現(xiàn)出適

應(yīng)性。該系統(tǒng)基于明確或隱含的目標(biāo),從接收到的輸入中推斷如何生成可影響物理或虛擬環(huán)境的輸出,例如預(yù)測(cè)、內(nèi)容、推薦或決策。《人工智能法案》

采取了基于風(fēng)險(xiǎn)的方法,將人工智能系統(tǒng)分為最低

風(fēng)險(xiǎn)、低風(fēng)險(xiǎn)、高風(fēng)險(xiǎn)和不可接受風(fēng)險(xiǎn)這四級(jí)。其中,認(rèn)知行為操縱和社會(huì)評(píng)分等具有不被接受風(fēng)險(xiǎn)的人

工智能系統(tǒng)被禁止進(jìn)入歐盟市場(chǎng);高風(fēng)險(xiǎn)人工智能

系統(tǒng)需要獲得批準(zhǔn),同時(shí)需要遵守技術(shù)要求、風(fēng)險(xiǎn)

管理、數(shù)據(jù)治理、透明度等一系列要求和義務(wù)才被

允許進(jìn)入歐盟市場(chǎng);其他非高風(fēng)險(xiǎn)人工智能系統(tǒng)的

提供者則被鼓勵(lì)制定行為守則,包括相關(guān)的治理機(jī)1.1全球人工智能發(fā)展概述截至2024年,全球共有69個(gè)國(guó)家和地區(qū)制定了人工智能相關(guān)政策和立法,涵蓋了從

AI治理、隱私保護(hù)、

數(shù)據(jù)監(jiān)管到倫理規(guī)范等廣泛的主題,反映了各國(guó)對(duì)

AI技術(shù)發(fā)展的重視及其潛在風(fēng)險(xiǎn)的管理需求。以下國(guó)家或地區(qū)明確針對(duì)人工智能出臺(tái)了立法或監(jiān)管要求:第一章全球人工智能發(fā)展與監(jiān)管體系

01可信人工智能治理

白皮書(shū)intelligencesystems)的法案。該法案將高風(fēng)險(xiǎn)人工智能系統(tǒng)定義為任何在投入使用時(shí)能夠做出重大決

策或在做出重大決策中起到關(guān)鍵作用的人工智能系

統(tǒng),要求高風(fēng)險(xiǎn)人工智能系統(tǒng)的開(kāi)發(fā)者(developer)

向部署者(deployer)披露有關(guān)高風(fēng)險(xiǎn)系統(tǒng)的特定信

息、提供完成影響評(píng)估所需的信息和文件,并要求

部署者實(shí)施風(fēng)險(xiǎn)管理政策和程序,定期進(jìn)行影響評(píng)

估,并向消費(fèi)者披露其交互對(duì)象的人工智能系統(tǒng)的

某些通知,以避免高風(fēng)險(xiǎn)人工智能系統(tǒng)內(nèi)的算法歧視。再如,

2022年伊利諾伊州頒布了《人工智能視

頻面試法案》(Artificial

IntelligenceVideo

InterviewAct

in2022)

,對(duì)使用人工智能分析視頻面試的雇

主提出要求。加利福尼亞州、新澤西州、紐約州、佛蒙特州和華盛頓特區(qū)也提出了相關(guān)立法,規(guī)范人

工智能在招聘和晉升中的使用。1.1.3

中國(guó)人工智能發(fā)展2024年5月,“人工智能法草案”被列入《國(guó)務(wù)

院2024年度立法工作計(jì)劃》。盡管目前我國(guó)尚未出

臺(tái)人工智能專(zhuān)門(mén)立法,但已初步建立限制和規(guī)范人

工智能開(kāi)發(fā)與應(yīng)用的法律框架,即以《中華人民共

和國(guó)網(wǎng)絡(luò)安全法》《中華人民共和國(guó)數(shù)據(jù)安全法》《中

華人民共和國(guó)個(gè)人信息保護(hù)法》以及《中華人民共

和國(guó)科學(xué)技術(shù)進(jìn)步法》為基礎(chǔ),由《互聯(lián)網(wǎng)信息服

務(wù)算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成

管理規(guī)定》《生成式人工智能服務(wù)管理暫行辦法》

等一系列規(guī)范文件發(fā)揮主要監(jiān)管作用,同時(shí)配有《互聯(lián)網(wǎng)信息服務(wù)管理辦法》《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理

規(guī)定》《具有輿論屬性或社會(huì)動(dòng)員能力的互聯(lián)網(wǎng)信

息服務(wù)安全評(píng)估規(guī)定》等關(guān)聯(lián)法律法規(guī)。其中,

《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》

構(gòu)建了算法監(jiān)管的機(jī)制,確定了算法服務(wù)的監(jiān)管部

門(mén),為算法服務(wù)提供者設(shè)定了算法備案等合規(guī)義務(wù)

與監(jiān)管要求義務(wù);

《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》進(jìn)一步規(guī)范了深度合成服務(wù)提供者、技術(shù)支撐者的行為;《生成式人工智能服務(wù)管理暫行辦法》以及其他人工智能和自動(dòng)化系統(tǒng),要求公司評(píng)估其使用和銷(xiāo)售的人工智能系統(tǒng)的影響,為何時(shí)以及如何使用此類(lèi)系統(tǒng)創(chuàng)造新的透明度,使消費(fèi)者能夠在

與人工智能系統(tǒng)交互時(shí)做出明智的選擇。同年10月,拜登總統(tǒng)簽署了一項(xiàng)人工智能行

政命令《關(guān)于安全、可靠和可信賴(lài)地開(kāi)發(fā)和使用人

工智能的行政命令》(ExecutiveOrderonthe

Safe,

Secure,

and

Trustworthy

Development

and

Use

of

Artificial

Intelligence),為人工智能安全、安保、隱

私保護(hù)、促進(jìn)公平和公民權(quán)利、促進(jìn)競(jìng)爭(zhēng)和創(chuàng)新建

立了新的基準(zhǔn)。該行政命令要求制定一份國(guó)家安全

備忘錄,以指導(dǎo)人工智能在軍事和情報(bào)行動(dòng)中的安

全和合乎道德的應(yīng)用,確保保護(hù)美國(guó)人的隱私,并

培育一個(gè)開(kāi)放、競(jìng)爭(zhēng)激烈的人工智能市場(chǎng),強(qiáng)調(diào)美

國(guó)的創(chuàng)新。為應(yīng)對(duì)人工智能生成內(nèi)容的知識(shí)產(chǎn)權(quán)挑戰(zhàn),美國(guó)專(zhuān)利商標(biāo)局(USPTO)和版權(quán)局(USCO)

經(jīng)發(fā)布了相關(guān)執(zhí)法行動(dòng)和指南。2024年2月,美

國(guó)專(zhuān)利商標(biāo)局發(fā)布的關(guān)于人工智能輔助發(fā)明的詳細(xì)

南(AI

and

inventorship

guidance:

Incentivizinghuman

ingenuity

and

investment

in

AI-assisted

inventions)明確規(guī)定了AI輔助創(chuàng)新中的發(fā)明權(quán)確定

問(wèn)題,即人類(lèi)貢獻(xiàn)必須足夠顯著才能獲得專(zhuān)利保護(hù)。2023年,美國(guó)版權(quán)局發(fā)布的“包含人工智能生成材料的

作品”(Works

Containing

Material

Generated

byArtificial

Intelligence)

的政策規(guī)定,

如果作品純粹由

AI生成,除非有顯著的人類(lèi)創(chuàng)作參與,否則不符合版權(quán)保護(hù)條件。如果人類(lèi)在

AI

生成材料的選擇、

安排或修改中作出了重大貢獻(xiàn),則人類(lèi)創(chuàng)作元素可

獲得版權(quán)保護(hù)。此外,

美國(guó)一些州也已經(jīng)在人工智能相關(guān)領(lǐng)

域制定監(jiān)管法律。例如,2024

5

17

日,

科羅

拉多州州長(zhǎng)簽署了參議院第24-205號(hào)《關(guān)于在人

工智能系統(tǒng)交互中保護(hù)消費(fèi)者權(quán)益》(Concerning

consumer

protections

in

interactions

with

artificial第一章全球人工智能發(fā)展與監(jiān)管體系

02可信人工智能治理

白皮書(shū)圖1

中美歐人工智能監(jiān)管區(qū)分1.2“可信人工智能”概念提出人工智能的可信已經(jīng)成為全球各國(guó)在發(fā)展人工智能中的一致性原則。全球范圍內(nèi)諸多自律性標(biāo)準(zhǔn)或文件都

對(duì)“可信人工智能”提出了具體要求。對(duì)生成式人工智能服務(wù)提供者規(guī)定了數(shù)據(jù)和基礎(chǔ)模型的來(lái)源合法、數(shù)據(jù)標(biāo)注、網(wǎng)絡(luò)安全、未成年人保

護(hù)以及評(píng)估備案等一系列合規(guī)義務(wù),明確了提供者

的網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者責(zé)任。隨著全球各國(guó)逐步加大對(duì)人工智能技術(shù)的立法

和監(jiān)管力度,各種法律和監(jiān)管規(guī)范不斷涌現(xiàn)。然而,僅僅依靠法律和監(jiān)管并不足以全面應(yīng)對(duì)人工智能帶來(lái)的技術(shù)黑箱、信息隱匿、責(zé)任錯(cuò)綜復(fù)雜等多維度

的挑戰(zhàn),與之對(duì)應(yīng)的治理能力明顯具有滯后性,可

信人工智能治理已然成為全球各國(guó)確保前沿技術(shù)創(chuàng)

新、先進(jìn)法律制度發(fā)展和國(guó)家安全的核心議題。圖2全球自律性文件及“可信人工智能”概念第一章全球人工智能發(fā)展與監(jiān)管體系

03可信人工智能治理

白皮書(shū)歐盟《可信人工智能倫理指南》《G20人工智能原則》《人工智能風(fēng)險(xiǎn)管理框架》和《G7行為準(zhǔn)則》共同關(guān)注著人工智能的技術(shù)穩(wěn)健性和安全性、AI系統(tǒng)透明度、非歧視和非偏見(jiàn)的公平性以及可問(wèn)責(zé)性。在此基礎(chǔ)上,本白皮書(shū)將“可信人工智能”定義為設(shè)計(jì)、開(kāi)發(fā)和部署技術(shù)可靠、安全,

能夠輸出不帶歧視和偏見(jiàn)的公正結(jié)果,

基本原理和運(yùn)行過(guò)程透明,可問(wèn)責(zé)且以人為本的人工智能系統(tǒng)。在我們開(kāi)始探究可信人工智能相關(guān)問(wèn)題之前,需要首先對(duì)可信人工智能提供者、部署者等概念進(jìn)行界定,厘清概念之間相關(guān)性。在人工智能的語(yǔ)境中,提經(jīng)常被本白皮書(shū)采用歐盟《人工智能法》第三條對(duì)于提供者(provider)和部署

者(deployer)的定義。

提供者(provider):開(kāi)發(fā)人工智能系統(tǒng)或通用人工智能模型,或已開(kāi)發(fā)人工智能系統(tǒng)或通用人工智能模型,并將其投放市場(chǎng)或以自己的名義或商標(biāo)提供服務(wù)的自然人或法人,公共機(jī)關(guān)、機(jī)構(gòu)或其他團(tuán)體,無(wú)論有償還是無(wú)償。

部署者(deployer):在其授權(quán)下使用人工智能系統(tǒng)的任何自然人或法人、公共機(jī)關(guān)、機(jī)構(gòu)或其他團(tuán)體,

但在個(gè)人非職業(yè)活動(dòng)中使用人工智能系統(tǒng)的情況除外。第一章全球人工智能發(fā)展與監(jiān)管體系

04可信人工智能治理

白皮書(shū)第二章人工智能的可信原則02為了確保人工智能技術(shù)的健康發(fā)展,推動(dòng)其在促進(jìn)科技創(chuàng)新和經(jīng)濟(jì)發(fā)展中發(fā)揮積極作用,我們必須著眼于構(gòu)建可信人工智能體系。可信人工智能的核心在于,其設(shè)計(jì)、開(kāi)發(fā)

和部署過(guò)程中必須嚴(yán)格遵循一系列基本原則,包括但不限于安全性、公平性、可解釋性和

隱私保護(hù)。這些原則不僅關(guān)乎人工智能技術(shù)的內(nèi)在可信度,更關(guān)系到其與人類(lèi)社會(huì)的和諧共融。安永認(rèn)為相關(guān)利益方應(yīng)積極理解AI的核心原則,建立可信人工智能體系,構(gòu)建AI治理與風(fēng)險(xiǎn)管理架構(gòu),并隨著監(jiān)管態(tài)勢(shì)、科技發(fā)展、社會(huì)生產(chǎn)力等變化動(dòng)態(tài)調(diào)整,以實(shí)現(xiàn)可持續(xù)發(fā)展進(jìn)步。PART《G20貿(mào)易和數(shù)字經(jīng)濟(jì)部長(zhǎng)聲明》中提出的人工智能原則是在2019年由G20成員共同商定的一

套國(guó)際性指導(dǎo)原則,旨在確保人工智能的發(fā)展方向能夠符合人類(lèi)社會(huì)的共同利益,人工智能應(yīng)用是可

持續(xù)、負(fù)責(zé)任和以人為本的。所有利益相關(guān)者,根

據(jù)各自的角色,秉持以下原則對(duì)可信人工智能進(jìn)行

負(fù)責(zé)任管理。1

.包容性增長(zhǎng)、可持續(xù)發(fā)展及福祉應(yīng)積極負(fù)責(zé)任地管理值得信賴(lài)的

AI,以追求人類(lèi)和地球的有益成果,從而振興包容性增長(zhǎng),可持

續(xù)發(fā)展和福祉。增強(qiáng)人的能力和創(chuàng)造力,促進(jìn)和包

容代表性不足的人,減少經(jīng)濟(jì),社會(huì),性別和其他

不平等,保護(hù)自然環(huán)境。2.

尊重法治、人權(quán)以及民主價(jià)值觀(guān),包括公平

和隱私應(yīng)尊重法治、人權(quán)、民主和在整個(gè)AI

系統(tǒng)生命

周期中以人為本的價(jià)值觀(guān)。這些包括不歧視和平等、

自由、尊嚴(yán)、個(gè)人自主,

隱私和數(shù)據(jù)保護(hù)、多樣性、

公平性、社會(huì)正義以及國(guó)際公認(rèn)的勞工權(quán)利。為此

目的,還應(yīng)實(shí)施適合于環(huán)境和符合技術(shù)水平的機(jī)制和保障措施。3

.透明度和可解釋性應(yīng)致力于負(fù)責(zé)任地披露

AI系統(tǒng)信息。為此,應(yīng)

提供適合于客觀(guān)實(shí)際并符合技術(shù)發(fā)展水平的有意義的信息:促進(jìn)對(duì)AI系統(tǒng)的普遍理解;讓利益相關(guān)者

了解與

AI系統(tǒng)的互動(dòng)情況;

使受

AI系統(tǒng)影響的人能夠理解系統(tǒng)的結(jié)果;

使受到

AI系統(tǒng)不利影響的人能

夠根據(jù)相關(guān)因素的簡(jiǎn)單易懂的信息,作為預(yù)測(cè)、建議或決策基礎(chǔ)的邏輯來(lái)源,

并可質(zhì)疑

AI系統(tǒng)產(chǎn)生不

利影響。4

.穩(wěn)健性、安全性和保障性AI系統(tǒng)應(yīng)在整個(gè)生命周期內(nèi)保持穩(wěn)健、安全和

有保障,從而在正常使用、可預(yù)見(jiàn)的使用或誤用,

或其他不利條件下,能夠正常運(yùn)作,避免造成不合

理的安全風(fēng)險(xiǎn)。還需確保如果人工智能系統(tǒng)有風(fēng)險(xiǎn)

導(dǎo)致不當(dāng)傷害或表現(xiàn)出不良行為的,可以被覆蓋、

修復(fù)或根據(jù)需要安全退役。在技術(shù)上可行的情況下,

還應(yīng)加強(qiáng)信息廉潔,同時(shí)確保尊重言論自由。5.

問(wèn)責(zé)制應(yīng)對(duì)人工智能系統(tǒng)的正常運(yùn)作負(fù)責(zé),并對(duì)人工2.1G20人工智能可信原則第二章人工智能的可信原則

05可信人工智能治理

白皮書(shū)2019年4月8

日,

歐盟人工智能高級(jí)別專(zhuān)家組發(fā)布《人工智能倫理指南》(Ethics

Guidelinesfor

Artificial

Intelligence),提出了人工智能系統(tǒng)應(yīng)滿(mǎn)足

的七項(xiàng)關(guān)鍵要求,才能被視為可信賴(lài)。具體要求如下:(一

)人類(lèi)的能動(dòng)性與監(jiān)督:人類(lèi)應(yīng)對(duì)

AI系統(tǒng)

擁有權(quán)力并能夠監(jiān)督人工智能所做的決定和行為。(二

)技術(shù)的穩(wěn)健性與安全性:AI系統(tǒng)應(yīng)是穩(wěn)健

的、可復(fù)原的、安全的,出現(xiàn)問(wèn)題時(shí)可最大限度地

減少和防止意外傷害。(三

)隱私與數(shù)據(jù)治理:AI系統(tǒng)需充分尊重隱私

和數(shù)據(jù)保護(hù),同時(shí)還應(yīng)有適當(dāng)?shù)臄?shù)據(jù)質(zhì)量、完整性、

合法訪(fǎng)問(wèn)等相關(guān)數(shù)據(jù)治理機(jī)制。2.3安永觀(guān)點(diǎn):可信人工智能原則經(jīng)濟(jì)合作與發(fā)展組織(OECD)、二十國(guó)集團(tuán)

(G20)以及歐盟提出的人工智能原則,提倡人工智

能應(yīng)具有創(chuàng)新性、值得信賴(lài)、尊重人權(quán)和民主價(jià)值觀(guān),

為人工智能制定了切實(shí)可行、靈活多變、經(jīng)得起時(shí)

間考驗(yàn)的標(biāo)準(zhǔn)。體現(xiàn)了國(guó)際社會(huì)對(duì)人工智能技術(shù)發(fā)

展的共同關(guān)注和期望,也為全球范圍內(nèi)人工智能的

研究、開(kāi)發(fā)和應(yīng)用提供了一套價(jià)值觀(guān)和行為準(zhǔn)則。

為此,安永在全球化的商業(yè)服務(wù)實(shí)踐中,將AI技術(shù)(四

)透明度:AI的數(shù)據(jù)、系統(tǒng)和商業(yè)模式應(yīng)該是透明的;AI系統(tǒng)的相關(guān)決策、系統(tǒng)功能以及局限

性應(yīng)對(duì)相關(guān)利益方進(jìn)行解釋和告知。(五

)多樣性、非歧視與公平性:AI系統(tǒng)必須避

免歧視性以及不公平的偏見(jiàn);同時(shí),AI系統(tǒng)應(yīng)保持

多樣性,應(yīng)該向所有人開(kāi)放,并讓相關(guān)利益方參與

其中。(六

)社會(huì)和環(huán)境福祉:AI系統(tǒng)應(yīng)造福全人類(lèi),

并考慮其他生物生存的社會(huì)影響,確保是可持續(xù)和

環(huán)保的。(七)問(wèn)責(zé)制:

建立問(wèn)責(zé)機(jī)制,確保AI系統(tǒng)及其成果是可問(wèn)責(zé)的,能夠?qū)λ惴ā?shù)據(jù)和設(shè)計(jì)流程

進(jìn)行審計(jì),還應(yīng)確保提供適當(dāng)和便捷的補(bǔ)救措施。與安永服務(wù)能力進(jìn)行深度結(jié)合,不僅增強(qiáng)了客戶(hù)服

務(wù)的轉(zhuǎn)型升級(jí),

也為可信

AI的未來(lái)發(fā)展建立了社會(huì)

信心。安永強(qiáng)調(diào)可信、以人為本的方法實(shí)現(xiàn)

AI

的潛力,

專(zhuān)注于為所有人創(chuàng)造價(jià)值,以實(shí)現(xiàn)可持續(xù)增長(zhǎng)并為更好的商業(yè)世界賦予人和社會(huì)力量。安永根據(jù)國(guó)際

化的人工智能商業(yè)實(shí)踐經(jīng)驗(yàn)和對(duì)全球人工智能法規(guī)

政策的洞察,認(rèn)為具有問(wèn)責(zé)性、合規(guī)性、可解釋性、

公平性等原則的人工智能才是可信人工智能。包容性增長(zhǎng)、可持續(xù)發(fā)展

和福祉應(yīng)積極負(fù)責(zé)任地管理值得信賴(lài)的,以人類(lèi)和地球追求有益的成果,從而振興包容性增長(zhǎng)、可持續(xù)發(fā)展和福祉可持續(xù)性公平和偏見(jiàn)增強(qiáng)人類(lèi)的能力和增強(qiáng)創(chuàng)造力促進(jìn)和保護(hù)代表性不足的人減少經(jīng)濟(jì)、社會(huì)、性別和其他不平等現(xiàn)象保護(hù)自然環(huán)境智能系統(tǒng)的正常運(yùn)作負(fù)責(zé);同時(shí)還應(yīng)確保在人工智能系統(tǒng)生命周期中做出的數(shù)據(jù)集、流程和決策是可追溯的;人工智能系統(tǒng)的各方參與者有責(zé)任根據(jù)其角色,以適合于客觀(guān)實(shí)際并符合技術(shù)發(fā)展水平的方式,確保AI系統(tǒng)的

正常運(yùn)行,將風(fēng)險(xiǎn)管理方法應(yīng)用于人工智能系統(tǒng)的全生命周期。2.2歐盟可信人工智能原則OECD&G20:AI原則基本措施安永:AI原則第二章人工智能的可信原則

06可信人工智能治理

白皮書(shū)OECD&G20:AI原則基本措施安永:AI原則以人為本的價(jià)值觀(guān)和公平人應(yīng)尊重法治、人權(quán)、民主和在整個(gè)

AI系統(tǒng)生命周期中以人為本

的價(jià)值觀(guān)。這些包括不歧視和平等、自由、尊嚴(yán)、個(gè)人自主,

隱私

和數(shù)據(jù)保護(hù)、多樣性、公平性、社會(huì)正義以及國(guó)際公認(rèn)的勞工權(quán)利。可持續(xù)性公平和偏見(jiàn)合規(guī)為此目的,還應(yīng)實(shí)施適合于環(huán)境和符合技術(shù)水平的機(jī)制和保障措施。透明度和可解釋性應(yīng)致力于負(fù)責(zé)任地披露

AI系統(tǒng)信息。為此,應(yīng)提供適合于客觀(guān)實(shí)

際并符合技術(shù)發(fā)展水平的有意義的信息:透明度促進(jìn)對(duì)人工智能系統(tǒng)的全面理解讓利益相關(guān)者了解與

AI系統(tǒng)的互動(dòng)情況使受

AI系統(tǒng)影響的人能夠理解系統(tǒng)的結(jié)果可解釋性使受到AI

系統(tǒng)不利影響的人能夠根據(jù)相關(guān)因素的簡(jiǎn)單易懂的信息,

作為預(yù)測(cè)、建議或決策基礎(chǔ)的邏輯來(lái)源,并可質(zhì)疑

AI系統(tǒng)產(chǎn)生不

利影響。穩(wěn)健性、安全性和保障性AI系統(tǒng)應(yīng)在整個(gè)生命周期內(nèi)保持穩(wěn)健、安全和有保障,從而在正

常使用、可預(yù)見(jiàn)的使用或誤用,或其他不利條件下,能夠正常運(yùn)作,

避免造成不合理的安全風(fēng)險(xiǎn)。可靠性安全還需確保如果人工智能系統(tǒng)有風(fēng)險(xiǎn)導(dǎo)致不當(dāng)傷害或表現(xiàn)出不良行

為的,可以被覆蓋、修復(fù)或根據(jù)需要安全退役。透明度在技術(shù)上可行的情況下,還應(yīng)加強(qiáng)信息廉潔,同時(shí)確保尊重言論自

由。可靠性問(wèn)責(zé)制AI系統(tǒng)的各方參與者有責(zé)任根據(jù)其角色,以適合于客觀(guān)實(shí)際并符

合技術(shù)發(fā)展水平的方式,確保

AI系統(tǒng)的正常運(yùn)行,將風(fēng)險(xiǎn)管理方

法應(yīng)用于人工智能系統(tǒng)的全生命周期。問(wèn)責(zé)制安永在全球化的商業(yè)服務(wù)實(shí)踐中,將

AI技術(shù)與安永服務(wù)能力進(jìn)行深度結(jié)合,不僅增強(qiáng)了客戶(hù)服務(wù)的轉(zhuǎn)型升級(jí),也為可信

AI

的未來(lái)發(fā)展建立了社會(huì)信心,創(chuàng)造指數(shù)級(jí)的價(jià)值。安永強(qiáng)調(diào)可信、以人為本的方法實(shí)現(xiàn)

AI

的潛力,

專(zhuān)注于為所有人創(chuàng)造價(jià)值,已實(shí)現(xiàn)可持續(xù)增長(zhǎng)并為更好地商業(yè)世界賦予人和社會(huì)力量。圖3安永所倡導(dǎo)的

AI原則第二章人工智能的可信原則

07可信人工智能治理

白皮書(shū)疑影響了用戶(hù)體驗(yàn)。中國(guó)青年報(bào)社社會(huì)調(diào)查中心對(duì)1501名受訪(fǎng)者進(jìn)行的調(diào)查表明,超過(guò)62%的受訪(fǎng)者感受到“大數(shù)據(jù)+算法”精準(zhǔn)推送帶來(lái)的“信息繭房”2。算法黑箱和信息繭房問(wèn)題,往往根植于大型機(jī)器學(xué)習(xí)模型的內(nèi)在特性。與基礎(chǔ)算法相比,人工智能模型采用的神經(jīng)網(wǎng)絡(luò)算法的復(fù)雜性源于其擁有龐大的參數(shù)網(wǎng)絡(luò)和處理高維數(shù)據(jù)的能力,且決策過(guò)程無(wú)法僅通過(guò)底層算法預(yù)測(cè),而是基于訓(xùn)練數(shù)據(jù)深度學(xué)習(xí)到的復(fù)雜模式和規(guī)律。以個(gè)性化推薦算法為例,其依據(jù)用戶(hù)行為數(shù)據(jù)進(jìn)行內(nèi)容定制,以此增強(qiáng)用戶(hù)體驗(yàn)和平臺(tái)互動(dòng)性。然而,這種算法可能導(dǎo)致用戶(hù)行為(如點(diǎn)擊、點(diǎn)贊和評(píng)論)進(jìn)一步強(qiáng)化其內(nèi)部推薦邏輯,形成了

一個(gè)自我加強(qiáng)的反饋循環(huán)。用戶(hù)難以直觀(guān)地查看或修改模型的內(nèi)部機(jī)制,也難以理解模型如何完成文本生成、

推斷、分類(lèi)等任務(wù)。此外,企業(yè)在處理數(shù)據(jù)時(shí),出于隱私保護(hù)和商業(yè)機(jī)密的考慮,往往不會(huì)完全公開(kāi)其數(shù)據(jù)處理流程。同時(shí),

現(xiàn)行的知識(shí)產(chǎn)權(quán)法律在保護(hù)創(chuàng)新成果的同時(shí),也可能間接限制了算法透明度的提升。第三章可信人工智能的關(guān)鍵問(wèn)題03在各國(guó)人工智能法律法規(guī)的框架之下,企業(yè)對(duì)人工智能技術(shù)的應(yīng)用依然面臨著諸多

風(fēng)險(xiǎn)與問(wèn)題。一方面,數(shù)據(jù)隱私問(wèn)題令人擔(dān)憂(yōu),大量的個(gè)人數(shù)據(jù)被收集用于訓(xùn)練算法,然

而這些數(shù)據(jù)的安全性和合規(guī)使用卻難以得到完全保障。另一方面,算法偏見(jiàn)也不容忽視。

由于訓(xùn)練數(shù)據(jù)的不全面或偏差,算法可能會(huì)對(duì)某些群體產(chǎn)生不公平的判斷和決策。人工智

能技術(shù)固有的內(nèi)生安全問(wèn)題可能被惡意利用,造成難以估量的危害。這些風(fēng)險(xiǎn)對(duì)企業(yè)如何

更合規(guī)應(yīng)用人工智能技術(shù)提出了新的挑戰(zhàn)。PART3.1算法黑箱與信息繭房問(wèn)題2024年,某大型網(wǎng)約車(chē)服務(wù)平臺(tái)推出“車(chē)費(fèi)保鏢”服務(wù)旨在通過(guò)實(shí)時(shí)監(jiān)控車(chē)費(fèi)波動(dòng),為消費(fèi)者提供一個(gè)公

平且透明的出行體驗(yàn),并在檢測(cè)到異常收費(fèi)時(shí)提供先行賠付。然而,上海市消費(fèi)者權(quán)益保護(hù)委員會(huì)對(duì)該服務(wù)的

算法透明度提出批評(píng),指出由于缺乏明確的標(biāo)準(zhǔn)來(lái)定義“合理”的車(chē)費(fèi)變動(dòng),消費(fèi)者難以評(píng)估服務(wù)的實(shí)際保障水平,

從而使“車(chē)費(fèi)保鏢”服務(wù)在實(shí)際運(yùn)作中存在透明度不足的問(wèn)題。算法黑箱與信息繭房問(wèn)題因其直接觸及人們的日常使用體驗(yàn)和信息獲取路徑而尤為凸顯。算法的不透明性常常讓用戶(hù)在使用搜索引擎、社交媒體和在線(xiàn)購(gòu)物平臺(tái)時(shí)感到困惑,因?yàn)樗麄儫o(wú)法洞悉背后的推薦邏輯,這無(wú)第三章可信人工智能的關(guān)鍵問(wèn)題

08可信人工智能治理

白皮書(shū)3.2算法偏見(jiàn)問(wèn)題算法偏見(jiàn)是人工智能領(lǐng)域內(nèi)一個(gè)日益顯著的問(wèn)題,由于訓(xùn)練數(shù)據(jù)的不均衡或算法設(shè)計(jì)的不完善,這導(dǎo)致系統(tǒng)輸出結(jié)果可能帶有不公平性。這種偏見(jiàn)可能在招聘、司法、金融等多個(gè)關(guān)鍵領(lǐng)域顯現(xiàn),對(duì)特定群體造成系統(tǒng)

性的不公正影響。2018年某知名跨國(guó)電商企業(yè)的招聘算法被發(fā)現(xiàn)在篩選簡(jiǎn)歷時(shí),對(duì)含有與“女性”相關(guān)詞匯的簡(jiǎn)歷評(píng)分偏低,這一性別偏見(jiàn)問(wèn)題最終導(dǎo)致了該算法的關(guān)閉。無(wú)獨(dú)有偶,多家知名企業(yè)廣泛采用的AI面試工具,被指出在解讀面試者表情時(shí)可能存在誤判,從而導(dǎo)致對(duì)面試者性格特征的不準(zhǔn)確推斷。算法偏見(jiàn)的形成原因可以歸納為以下三個(gè)方面:據(jù)保護(hù)法規(guī)要求。這不僅會(huì)損害用戶(hù)的利益,還可能對(duì)人工智能行業(yè)的健康發(fā)展造成負(fù)面影響。底層數(shù)據(jù)源的安全問(wèn)題是一個(gè)多維度的挑戰(zhàn),

它不僅包括數(shù)據(jù)源獲取的合法性,還涵蓋了數(shù)據(jù)語(yǔ)

料庫(kù)的管理、數(shù)據(jù)投毒攻擊、數(shù)據(jù)源的依賴(lài)性和時(shí)

效性等。龐大的數(shù)據(jù)語(yǔ)料庫(kù)可能潛藏著仇恨言論、

歧視性言論、虛假信息等有害內(nèi)容,這些內(nèi)容若被

惡意注入,不僅會(huì)誤導(dǎo)人工智能的學(xué)習(xí)過(guò)程,損害

模型的準(zhǔn)確性,還可能對(duì)用戶(hù)的利益造成實(shí)質(zhì)性的

威脅。同樣,確保數(shù)據(jù)源的多樣性和時(shí)效性至關(guān)重要,

如果算法過(guò)度依賴(lài)單一或有限的數(shù)據(jù)源,其魯棒性

將受到削弱,而依賴(lài)過(guò)時(shí)的數(shù)據(jù)源,使用不再反映

現(xiàn)實(shí)的陳舊數(shù)據(jù)也會(huì)降低人工智能決策的準(zhǔn)確性和

可靠性。3.3.1底層數(shù)據(jù)源2017年,英國(guó)信息委員會(huì)(ICO)對(duì)倫敦某醫(yī)

院基金會(huì)與某科技公司旗下人工智能研究公司的智

能醫(yī)療合作項(xiàng)目進(jìn)行了調(diào)查,調(diào)查結(jié)果顯示,在開(kāi)

發(fā)移動(dòng)醫(yī)療應(yīng)用的過(guò)程中,該人工智能研究公司未

能充分向患者披露其個(gè)人醫(yī)療數(shù)據(jù)的使用目的和范

圍,使用超過(guò)160萬(wàn)患者的醫(yī)療記錄作為訓(xùn)練和測(cè)試的數(shù)據(jù)源3

。數(shù)據(jù)源獲取的合法性問(wèn)題可能觸發(fā)一

系列復(fù)雜問(wèn)題,包括知識(shí)產(chǎn)權(quán)侵權(quán)、公民個(gè)人信息

保護(hù)不足等。數(shù)據(jù)作為用戶(hù)與模型之間的溝通橋梁,

其質(zhì)量和來(lái)源直接影響到人工智能模型的性能表現(xiàn)。

如果數(shù)據(jù)來(lái)源不明確或獲取方式存在法律問(wèn)題,那

么在使用這些數(shù)據(jù)的過(guò)程中,就難以滿(mǎn)足現(xiàn)行的數(shù) 訓(xùn)練數(shù)據(jù)的不均衡性:如果訓(xùn)練數(shù)據(jù)在收集時(shí)存在歷史偏見(jiàn)或代表性不足,算法可能會(huì)繼承并放大這些偏見(jiàn),從而產(chǎn)生歧視性結(jié)果。 特征選擇的偏差:在模型訓(xùn)練過(guò)程中,選擇哪些特征作為輸入變量對(duì)結(jié)果具有重大影響,不當(dāng)?shù)奶卣鬟x

擇可能無(wú)意中引入歧視性偏見(jiàn)。 算法設(shè)計(jì)的不完善:如果算法設(shè)計(jì)過(guò)程中未能充分考慮公平性原則,或設(shè)計(jì)者本身存在偏見(jiàn),可能導(dǎo)致

算法在處理數(shù)據(jù)時(shí)無(wú)法保持公正和客觀(guān)。3.3數(shù)據(jù)安全問(wèn)題數(shù)據(jù)安全是構(gòu)建可信人工智能的關(guān)鍵,它不僅保護(hù)用戶(hù)隱私,確保企業(yè)遵守法律法規(guī),還構(gòu)建了用戶(hù)對(duì)系統(tǒng)的信任。數(shù)據(jù)安全通過(guò)防止算法偏見(jiàn)、保障決策公正性、維護(hù)數(shù)據(jù)的完整性和準(zhǔn)確性,支撐了人工智能的可

信應(yīng)用,并促進(jìn)了技術(shù)與社會(huì)的和諧發(fā)展。公眾對(duì)人工智能的信任建立在數(shù)據(jù)安全的基礎(chǔ)之上,

一旦發(fā)生安全事件,不僅用戶(hù)隱私受損,企業(yè)的聲譽(yù)和信任度也會(huì)受到嚴(yán)重影響。第三章可信人工智能的關(guān)鍵問(wèn)題

09可信人工智能治理

白皮書(shū)3.3.2數(shù)據(jù)泄露2023年4月,全球著名的商業(yè)集團(tuán)因允許其半導(dǎo)體部門(mén)工程師使用ChatGPT解決源代碼問(wèn)題,不慎泄露包括半導(dǎo)體設(shè)備測(cè)量資料和產(chǎn)品良率等在內(nèi)

的機(jī)密數(shù)據(jù)。根據(jù)美國(guó)數(shù)據(jù)安全公司Cyberhaven發(fā)布的報(bào)告4,

到2024年3月,

員工向人工智能模型輸入的公司數(shù)據(jù)中,敏感數(shù)據(jù)的比例從

10.7%激增至27.4%。盡管企業(yè)有責(zé)任嚴(yán)密保護(hù)機(jī)密信息,但

員工可能因缺乏安全意識(shí)在無(wú)意中將機(jī)密數(shù)據(jù)以提

問(wèn)的形式輸入人工智能模型中,致使企業(yè)商業(yè)機(jī)密

面臨持續(xù)泄露風(fēng)險(xiǎn)。人工智能模型的反向工程是一種高級(jí)的數(shù)據(jù)泄

露風(fēng)險(xiǎn),攻擊者通過(guò)精心設(shè)計(jì)的查詢(xún),分析人工智能模型的輸出結(jié)果,從而推斷出用于訓(xùn)練該模型的

敏感數(shù)據(jù)。由于人工智能模型可能記住了訓(xùn)練過(guò)程

中的特定模式和細(xì)節(jié),攻擊者利用這些信息,可以

對(duì)模型進(jìn)行“反向?qū)W習(xí)”,恢復(fù)或重建原始數(shù)據(jù)集的

一部分,對(duì)數(shù)據(jù)隱私和安全構(gòu)成嚴(yán)重威脅。3.3.3出海涉及相關(guān)數(shù)據(jù)出境規(guī)制在全球化大潮中,人工智能系統(tǒng)處理的數(shù)據(jù)頻

繁跨越國(guó)界,帶來(lái)了跨境數(shù)據(jù)傳輸與處理的挑戰(zhàn)。數(shù)據(jù)主權(quán)作為國(guó)家對(duì)數(shù)據(jù)控制權(quán)的體現(xiàn),涵蓋了數(shù)

據(jù)的收集、存儲(chǔ)、處理和傳輸?shù)壬芷诟鳝h(huán)節(jié)。個(gè)人信息出境要求,作為數(shù)據(jù)主權(quán)的重要組成部分,

規(guī)定了個(gè)人信息在跨國(guó)傳輸時(shí)必須遵循的規(guī)則。為了保護(hù)本國(guó)數(shù)據(jù)安全、維護(hù)國(guó)家利益和公民隱私,

各國(guó)紛紛制定并實(shí)施了相應(yīng)的法律法規(guī)。我國(guó)通過(guò)《中華人民共和國(guó)網(wǎng)絡(luò)安全法》《中

華人民共和國(guó)數(shù)據(jù)安全法》和《中華人民共和國(guó)個(gè)

人信息保護(hù)法》等法律法規(guī),

確立了個(gè)人信息出境

的合規(guī)要求。這些法規(guī)要求企業(yè)在處理數(shù)據(jù)出境事

宜時(shí),必須開(kāi)展安全評(píng)估,確保數(shù)據(jù)接收方能夠提

供充分的數(shù)據(jù)保護(hù)措施,并且必須獲得數(shù)據(jù)主體的

明確同意。遵循這些法規(guī)不僅是企業(yè)履行法律義務(wù)

的需要,也是維護(hù)企業(yè)聲譽(yù)、保持客戶(hù)信任的關(guān)鍵。3.4

內(nèi)生安全問(wèn)題人工智能技術(shù)的內(nèi)生安全問(wèn)題根植于系統(tǒng)內(nèi)部,從基礎(chǔ)設(shè)施的脆弱性、數(shù)據(jù)處理的漏洞,到開(kāi)發(fā)框架的缺陷、模型訓(xùn)練和部署的不規(guī)范,以及應(yīng)用層和接口層的攻擊風(fēng)險(xiǎn)。這些隱患不僅威脅到系統(tǒng)的安全性和用戶(hù)隱私,

還可能導(dǎo)致合規(guī)性問(wèn)題和聲譽(yù)損害。安全層的不足和監(jiān)控維護(hù)的滯后可能使系統(tǒng)對(duì)新威脅的防御能力下降,而

用戶(hù)交互層的安全問(wèn)題將直接影響用戶(hù)信任。若不妥善解決,

這些風(fēng)險(xiǎn)可能引發(fā)錯(cuò)誤決策、信任動(dòng)搖、數(shù)據(jù)泄露、

安全性下降,以及技術(shù)更新滯后,對(duì)企業(yè)運(yùn)營(yíng)和用戶(hù)權(quán)益造成嚴(yán)重影響。3.4.1人工智能基礎(chǔ)設(shè)施安全風(fēng)險(xiǎn)人工智能基礎(chǔ)設(shè)施的安全風(fēng)險(xiǎn)包括軟件漏洞、

依賴(lài)性風(fēng)險(xiǎn)、技術(shù)過(guò)時(shí)和網(wǎng)絡(luò)攻擊,這些問(wèn)題共同

威脅著系統(tǒng)的穩(wěn)定性和可靠性。軟件層面,操作系統(tǒng)、數(shù)據(jù)庫(kù)和應(yīng)用程序中的

未修復(fù)漏洞可能使系統(tǒng)面臨未授權(quán)訪(fǎng)問(wèn)和破壞的風(fēng)

險(xiǎn),而維護(hù)更新不足會(huì)加劇這一問(wèn)題。對(duì)特定軟件

庫(kù)或框架的過(guò)度依賴(lài)可能引入依賴(lài)性風(fēng)險(xiǎn),

一旦這

些依賴(lài)項(xiàng)存在問(wèn)題,整個(gè)系統(tǒng)將受影響。使用過(guò)時(shí)

的技術(shù)因缺乏最新安全功能易于遭受攻擊。此外,網(wǎng)絡(luò)攻擊如DDoS、端口掃描和未授權(quán)訪(fǎng)問(wèn)會(huì)直接影響系統(tǒng)的可用性和穩(wěn)定性。3.4.2數(shù)據(jù)安全風(fēng)險(xiǎn)人工智能系統(tǒng)的數(shù)據(jù)泄露風(fēng)險(xiǎn)遍布數(shù)據(jù)處理各環(huán)節(jié),尤其在安全防護(hù)不足時(shí)更為嚴(yán)峻。原因多樣:

數(shù)據(jù)加密不足易遭截獲;軟件漏洞可能被攻擊者利用;不安全的系統(tǒng)配置如開(kāi)放端口和簡(jiǎn)單密碼易于

被攻破;內(nèi)部人員的疏忽或故意行為可能引起數(shù)據(jù)

泄露;員工和用戶(hù)的數(shù)據(jù)保護(hù)意識(shí)不足,易成為網(wǎng)

絡(luò)攻擊目標(biāo);數(shù)據(jù)訪(fǎng)問(wèn)控制寬松,敏感信息面臨未第三章可信人工智能的關(guān)鍵問(wèn)題

10可信人工智能治理

白皮書(shū)在人工智能領(lǐng)域,應(yīng)用服務(wù)的安全風(fēng)險(xiǎn)是多方面的,涉及復(fù)雜的技術(shù)和倫理問(wèn)題。用戶(hù)與人工智能服務(wù)的互動(dòng)可能伴隨著隱私泄露的風(fēng)險(xiǎn),用戶(hù)可

能無(wú)意中分享了敏感信息,或者人工智能系統(tǒng)可能

在缺乏告知同意的情況下收集數(shù)據(jù),可能違反數(shù)據(jù)

保護(hù)法規(guī)。此外,用戶(hù)反饋對(duì)人工智能系統(tǒng)既是改

進(jìn)服務(wù)的寶貴資源,也可能被惡意用戶(hù)可能利用從

而進(jìn)行數(shù)據(jù)操縱或探測(cè)系統(tǒng)缺陷。而用戶(hù)提問(wèn)中可

能包含的不當(dāng)言論或虛假信息,不僅違背平臺(tái)規(guī)定,

也可能對(duì)社會(huì)秩序和個(gè)人權(quán)益造成損害。在內(nèi)容生成與決策方面,人工智能模型可能產(chǎn)

生帶有偏見(jiàn)或不準(zhǔn)確的信息。同時(shí),人工智能技術(shù)

的濫用,如深度偽造(Deepfake)技術(shù)或自動(dòng)化網(wǎng)

絡(luò)攻擊,對(duì)個(gè)人名譽(yù)和網(wǎng)絡(luò)安全構(gòu)成了嚴(yán)重威脅。人工智能模型的決策安全在醫(yī)療、金融、交通等領(lǐng)

域至關(guān)重要,這些領(lǐng)域的人工智能技術(shù)應(yīng)用一旦做

出錯(cuò)誤決策,可能會(huì)引發(fā)包括經(jīng)濟(jì)損失、健康風(fēng)險(xiǎn)

甚至生命安全在內(nèi)的嚴(yán)重后果。授權(quán)訪(fǎng)問(wèn)風(fēng)險(xiǎn);日志和監(jiān)控機(jī)制不足,難以及時(shí)檢測(cè)泄露。這些因素交織,形成數(shù)據(jù)泄露的復(fù)雜風(fēng)險(xiǎn)

環(huán)境。3.4.3模型安全風(fēng)險(xiǎn)在人工智能領(lǐng)域,模型安全風(fēng)險(xiǎn)是核心問(wèn)題,

包括對(duì)抗性攻擊、數(shù)據(jù)投毒、模型竊取、算法后門(mén)

和模型過(guò)擬合等方面。對(duì)抗性攻擊利用構(gòu)造輸入誤導(dǎo)模型,數(shù)據(jù)投毒

通過(guò)篡改訓(xùn)練數(shù)據(jù)扭曲學(xué)習(xí)過(guò)程,模型竊取嘗試逆

向工程獲取內(nèi)部參數(shù),算法后門(mén)植入隱蔽觸發(fā)條件,

而過(guò)擬合導(dǎo)致模型泛化能力差。這些問(wèn)題往往源于

數(shù)據(jù)管理不足、安全措施缺失、技術(shù)缺陷、計(jì)算資

源限制、透明度和監(jiān)管不足、復(fù)雜性增加、驗(yàn)證和

測(cè)試不完善以及內(nèi)部威脅等復(fù)合因素。隨著攻擊技

術(shù)的發(fā)展,模型安全問(wèn)題變得更加隱蔽和難以防范,

要求在數(shù)據(jù)管理、模型設(shè)計(jì)、訓(xùn)練和驗(yàn)證各環(huán)節(jié)加

強(qiáng)安全防護(hù)。3.4.4應(yīng)用服務(wù)安全風(fēng)險(xiǎn)

自然人的知情權(quán)、選擇權(quán)、公平交易權(quán)以及未成年人和老年人群體的合法權(quán)益受損,從而導(dǎo)致大數(shù)據(jù)殺熟、沉迷消費(fèi)、服務(wù)歧視等倫理問(wèn)題;

特定行業(yè)和企業(yè)在利用人工智能技術(shù)時(shí)缺乏科技倫理審查所引發(fā)產(chǎn)品缺陷、侵犯用戶(hù)合法權(quán)益、使用人

工智能技術(shù)進(jìn)行違法犯罪活動(dòng)等法律風(fēng)險(xiǎn);

人工智能技術(shù)的倫理問(wèn)題也可能引發(fā)社會(huì)群體性失業(yè)、弱勢(shì)群體不公平待遇進(jìn)一步加劇等社會(huì)性的倫理問(wèn)題。企業(yè)若違反科技倫理不僅影響企業(yè)聲譽(yù),更會(huì)面臨行政責(zé)任乃至刑事責(zé)任。2023

12

1日正式施行的《科3.5科技倫理問(wèn)題當(dāng)前以人工智能等核心科技的新一輪科技革命和產(chǎn)業(yè)變革加速演進(jìn),在生命科學(xué)、醫(yī)學(xué)、人工智能等領(lǐng)域的科技活動(dòng)的倫理挑戰(zhàn)日益增多,AI深度生成、基因編輯、自動(dòng)駕駛等人工智能技術(shù)正面臨科技倫理的拷問(wèn)與審視。人工智能大模型的訓(xùn)練、推理、應(yīng)用等活動(dòng)依賴(lài)大量的數(shù)據(jù)來(lái)訓(xùn)練,其訓(xùn)練決策的過(guò)程復(fù)雜且不透明,

可能會(huì)引發(fā)如下科技倫理問(wèn)題:技倫理審查辦法(試行)》為規(guī)范科學(xué)研究、技術(shù)開(kāi)發(fā)等科技活動(dòng),

強(qiáng)化科技倫理風(fēng)險(xiǎn)防控,提供了法律依據(jù)。第三章可信人工智能的關(guān)鍵問(wèn)題

11可信人工智能治理

白皮書(shū)第四章企業(yè)級(jí)

AI的合規(guī)要求04在全球人工智能監(jiān)管日益趨強(qiáng)的背景下,為更好應(yīng)對(duì)算法黑箱、算法偏見(jiàn)和外部攻擊等紛繁復(fù)雜的內(nèi)憂(yōu)外患,相關(guān)企業(yè)也面臨著從準(zhǔn)入資質(zhì)、算法合規(guī)義務(wù)到生成內(nèi)容合規(guī)

義務(wù)的一系列要求,以確保企業(yè)人工智能相關(guān)的發(fā)展和應(yīng)用合法合規(guī)。PART4.1.1互聯(lián)網(wǎng)信息服務(wù)提供者的基礎(chǔ)資質(zhì)通過(guò)互聯(lián)網(wǎng)向上網(wǎng)用戶(hù)提供信息的服務(wù)提供者

應(yīng)當(dāng)首先具備互聯(lián)網(wǎng)信息服務(wù)的基礎(chǔ)資質(zhì)。常見(jiàn)的

基礎(chǔ)資質(zhì)包括互聯(lián)網(wǎng)信息服務(wù)經(jīng)營(yíng)許可證(ICP許可

證)、增值電信業(yè)務(wù)經(jīng)營(yíng)許可證-在線(xiàn)數(shù)據(jù)處理與交

易處理業(yè)務(wù)(EDI許可證)和增值電信業(yè)務(wù)經(jīng)營(yíng)許可

證-移動(dòng)網(wǎng)信息服務(wù)業(yè)務(wù)(SP許可證)等。通過(guò)互聯(lián)網(wǎng)進(jìn)行電子公告服務(wù)和電子郵件、短

信服務(wù)等增值電信業(yè)務(wù)的經(jīng)營(yíng)性互聯(lián)網(wǎng)信息服務(wù)提

供者,應(yīng)當(dāng)向省、自治區(qū)、直轄市電信管理機(jī)構(gòu)或

者國(guó)務(wù)院信息產(chǎn)業(yè)主管部門(mén)申請(qǐng)辦理互聯(lián)網(wǎng)信息服

務(wù)增值電信業(yè)務(wù)經(jīng)營(yíng)許可證。從事在線(xiàn)數(shù)據(jù)處理和交易處理業(yè)務(wù)、移動(dòng)網(wǎng)信息服務(wù)業(yè)務(wù)等電信增值服

務(wù)的服務(wù)提供者還應(yīng)當(dāng)提交滿(mǎn)足申請(qǐng)條件的材料,

以在業(yè)務(wù)開(kāi)展前期獲得EDI許可證和SP許可證。4.1.2提供具體服務(wù)的特殊資質(zhì)互聯(lián)網(wǎng)新聞信息服務(wù)、網(wǎng)絡(luò)出版服務(wù)、網(wǎng)絡(luò)文

化活動(dòng)和網(wǎng)絡(luò)視聽(tīng)節(jié)目服務(wù)、生成式人工智能服務(wù)等具體服務(wù)的提供者,應(yīng)當(dāng)相應(yīng)取得互聯(lián)網(wǎng)新聞信息服務(wù)許可、網(wǎng)絡(luò)出版服務(wù)許可證、信息網(wǎng)絡(luò)傳播

視聽(tīng)節(jié)目許可證等特殊資質(zhì)。以互聯(lián)網(wǎng)新聞信息服務(wù)為例,“互聯(lián)網(wǎng)新聞信息

服務(wù)”包括互聯(lián)網(wǎng)新聞信息采編發(fā)布服務(wù)、轉(zhuǎn)載服務(wù)

和傳播平臺(tái)服務(wù)。申請(qǐng)主體需為通過(guò)互聯(lián)網(wǎng)站、應(yīng)

用程序、論壇、博客、微博客、公眾賬號(hào)、即時(shí)通

信工具、網(wǎng)絡(luò)直播等形式向社會(huì)公眾提供互聯(lián)網(wǎng)新

聞信息服務(wù)的主體,包括提供互聯(lián)網(wǎng)新聞信息服務(wù)

的算法推薦服務(wù)提供者、移動(dòng)互聯(lián)網(wǎng)應(yīng)用程序提供

者等主體。這些企業(yè)應(yīng)當(dāng)向特定主管部門(mén),

即省、

自治區(qū)、直轄市互聯(lián)網(wǎng)信息辦公室提出申請(qǐng)。同樣,

從事網(wǎng)絡(luò)出版服務(wù)、網(wǎng)絡(luò)文化活動(dòng)和網(wǎng)絡(luò)視聽(tīng)節(jié)目

服務(wù)的深度合成服務(wù)提供者和技術(shù)支持者取得網(wǎng)絡(luò)

出版服務(wù)、網(wǎng)絡(luò)文化活動(dòng)和網(wǎng)絡(luò)視聽(tīng)節(jié)目服務(wù)相關(guān)

許可;生成式人工智能服務(wù)提供者則應(yīng)當(dāng)取得生成

式人工智能服務(wù)相關(guān)行政許可。4.1資質(zhì)監(jiān)管要求人工智能相關(guān)企業(yè)的業(yè)務(wù)可能既包括信息服務(wù)和電子郵件、短信服務(wù)等增值電信業(yè)務(wù),也涉及網(wǎng)絡(luò)新聞、網(wǎng)絡(luò)文化、網(wǎng)絡(luò)出版等內(nèi)容,因此會(huì)涉及諸多資質(zhì)。基于此,白皮書(shū)將相關(guān)資質(zhì)分為互聯(lián)網(wǎng)信息服務(wù)提供者的基礎(chǔ)資質(zhì)和提供具體服務(wù)的特殊資質(zhì)兩大類(lèi),并重點(diǎn)說(shuō)明相關(guān)企業(yè)應(yīng)當(dāng)注意的監(jiān)管要求。第四章企業(yè)級(jí)

AI的合規(guī)要求12可信人工智能治理

白皮書(shū)4.2.1算法備案要求算法備案制度要求具有輿論屬性或者社會(huì)動(dòng)員

能力的算法推薦服務(wù)提供者、深度合成服務(wù)提供者、

深度合成服務(wù)技術(shù)支持者和生成式人工智能服務(wù)提

供者,按照法律程序就其所使用的算法推薦技術(shù)、

深度合成技術(shù)和生成式人工智能技術(shù)進(jìn)行備案。其中,“具有輿論屬性或者社會(huì)動(dòng)員能力”是指

以下兩種情形:(1)開(kāi)辦論壇、博客、微博客、聊天室、通訊群組、公眾賬號(hào)、短視頻、網(wǎng)絡(luò)直播、

信息分享、小程序等信息服務(wù)或者附設(shè)相應(yīng)功能;(2)

開(kāi)辦提供公眾輿論表達(dá)渠道或者具有發(fā)動(dòng)社會(huì)公眾

從事特定活動(dòng)能力的其他互聯(lián)網(wǎng)信息服務(wù)。算法推

薦服務(wù)提供者是指利用生成合成類(lèi)、個(gè)性化推送類(lèi)、

排序精選類(lèi)、檢索過(guò)濾類(lèi)、調(diào)度決策類(lèi)等算法技術(shù)

向用戶(hù)提供信息的組織或個(gè)人;深度合成服務(wù)提供

者是指通過(guò)利用深度學(xué)習(xí)、虛擬現(xiàn)實(shí)等生成合成類(lèi)

算法制作文本、圖像、音頻、視頻、虛擬場(chǎng)景等網(wǎng)絡(luò)信息的技術(shù)來(lái)提供服務(wù)的組織或個(gè)人;技術(shù)支持

者是指為深度合成服務(wù)提供技術(shù)支持的組織、個(gè)人;

生成式人工智能服務(wù)提供者是指利用生成式人工智

能技術(shù)提供生成式人工智能服務(wù)(包括通過(guò)提供可編程接口等方式提供生成式人工智能服務(wù))的組織、

個(gè)人。符合前述條件的企業(yè)應(yīng)當(dāng)通過(guò)互聯(lián)網(wǎng)信息服務(wù)

算法備案系統(tǒng)填報(bào)服務(wù)提供者的名稱(chēng)、服務(wù)形式、

應(yīng)用領(lǐng)域、算法類(lèi)型、算法自評(píng)估報(bào)告、擬公示內(nèi)

容等信息,以履行備案手續(xù)。4.2.2算法評(píng)估要求根據(jù)評(píng)估主體的不同,算法評(píng)估可以區(qū)分為自

評(píng)估和監(jiān)管機(jī)構(gòu)評(píng)估。自評(píng)估是指具有輿論屬性或

者社會(huì)動(dòng)員能力的算法推薦服務(wù)提供者、深度合成

服務(wù)提供者和技術(shù)支持者、具有輿論屬性或者社會(huì)

動(dòng)員能力的生成式人工智能服務(wù)提供者、上線(xiàn)具有

輿論屬性或者社會(huì)動(dòng)員能力的新技術(shù)、新應(yīng)用、新4.2算法合規(guī)要求在《中華人民共和國(guó)網(wǎng)絡(luò)安全法》《中華人民共和國(guó)數(shù)據(jù)安全法》《中華人民共和國(guó)個(gè)人信息保護(hù)法》三駕馬車(chē)的引領(lǐng)下,算法合規(guī)要求的主要依據(jù)來(lái)源于《算法推薦管理規(guī)定》《深度合成管理規(guī)定》和《生成式人

工智能服務(wù)管理辦法》的監(jiān)管規(guī)范,并初步形成了算法合規(guī)義務(wù)清單。圖4算法合規(guī)義務(wù)清單本節(jié)主要解讀算法備案、算法評(píng)估和算法透明性要求,聚焦企業(yè)的基礎(chǔ)合規(guī)要點(diǎn)與實(shí)踐操作指引。第四章企業(yè)級(jí)

AI的合規(guī)要求13可信人工智能治理

白皮書(shū)功能的應(yīng)用程序提供者、互聯(lián)網(wǎng)新聞信息服務(wù)提供者、互聯(lián)網(wǎng)信息服務(wù)提供者等主體,就其所應(yīng)用的

技術(shù)自行組織開(kāi)展或委托第三方機(jī)構(gòu)進(jìn)行安全評(píng)估。

監(jiān)管機(jī)構(gòu)評(píng)估是指網(wǎng)信、電信、公安、市場(chǎng)監(jiān)管等

有關(guān)部門(mén)就相關(guān)企業(yè)所應(yīng)用的技術(shù)自行組織或委托

第三方機(jī)構(gòu)開(kāi)展安全評(píng)估。從評(píng)估對(duì)象角度,算法評(píng)估包括針對(duì)服務(wù)和技

術(shù)的評(píng)估。針對(duì)算法服務(wù)的評(píng)估內(nèi)容主要包括算法

梳理情況、對(duì)算法服務(wù)基本原理、目的意圖和主要

運(yùn)行機(jī)制的公示、安全風(fēng)險(xiǎn)、可恢復(fù)性、安全應(yīng)急

處置機(jī)制、個(gè)人信息收集和使用的安全管理、用戶(hù)選擇的彈窗等設(shè)置以及投訴舉報(bào)反饋機(jī)制。針對(duì)算

法技術(shù)的評(píng)估內(nèi)容主要包括算法的通用條款、設(shè)計(jì)

開(kāi)發(fā)、驗(yàn)證確認(rèn)、部署運(yùn)行、維護(hù)升級(jí)和退役下線(xiàn)

的具體技術(shù)情況。因此,算法服務(wù)提供者應(yīng)當(dāng)開(kāi)展算法自評(píng)估活動(dòng),就其所提供的服務(wù)進(jìn)行安全評(píng)估。算法自評(píng)估

報(bào)告應(yīng)當(dāng)覆蓋下列信息:第一,算法基礎(chǔ)屬性信息:

選擇所需備案算法的算法類(lèi)型、應(yīng)用領(lǐng)域、使用場(chǎng)

景等,并填寫(xiě)《算法安全自評(píng)估報(bào)告》和《擬公示內(nèi)容》;第二,算法詳細(xì)描述信息:填寫(xiě)算法簡(jiǎn)介、應(yīng)用范圍、服務(wù)群體、用戶(hù)數(shù)量、社會(huì)影響情況、軟硬件設(shè)施及部署位置等信息;第三,算法風(fēng)險(xiǎn)描述信息:根據(jù)評(píng)估算法特點(diǎn),確定可能存在的算法濫用、惡意利用、算法漏洞等安全風(fēng)險(xiǎn),并加以描述。4.2.3算法透明性要求算法監(jiān)管規(guī)范將企業(yè)的透明性義務(wù)表述為“告知”,即算法推薦服務(wù)提供者應(yīng)當(dāng)以顯著方式告知用戶(hù)其提

供算法推薦服務(wù)的情況,并以適當(dāng)方式公示算法推薦服務(wù)的基本原理、目的意圖和主要運(yùn)行機(jī)制等;深度合成服務(wù)提供者和技術(shù)支持者提供人臉、人聲等生物識(shí)別信息編輯功能的,應(yīng)當(dāng)提示深度合成服務(wù)使用者

依法告知被編輯的個(gè)人,并取得其單獨(dú)同意。實(shí)踐中,企業(yè)作為服務(wù)提供者應(yīng)當(dāng)重視相關(guān)規(guī)則的透明化和可解釋化,在提供算法相關(guān)服務(wù)時(shí),以顯著的方式告知用戶(hù)基本情況,并以可理解的語(yǔ)言表述公示算法的基本原理、使用目的和運(yùn)行情況。需要取得同意的,應(yīng)當(dāng)及時(shí)告知用戶(hù)并征得其明確單獨(dú)的同

意。第四章企業(yè)級(jí)

AI的合規(guī)要求14可信人工智能治理

白皮書(shū)絡(luò)信息內(nèi)容生產(chǎn)者責(zé)任,深度合成服務(wù)提供者則承擔(dān)信息內(nèi)容管理主體責(zé)任,采取技術(shù)或者人工方式

對(duì)深度合成服務(wù)使用者的輸入數(shù)據(jù)和合成結(jié)果進(jìn)行

審核。目前,內(nèi)容審核義務(wù)主要由網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺(tái)承擔(dān)。2021年9月15

日,

國(guó)家互聯(lián)網(wǎng)信息辦

公室發(fā)布《關(guān)于進(jìn)一步壓實(shí)網(wǎng)站平臺(tái)信息內(nèi)容管理

主體責(zé)任的意見(jiàn)》,

明確要求網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺(tái)充分發(fā)揮網(wǎng)站平臺(tái)信息內(nèi)容管理第一責(zé)任人作用。

因此,網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺(tái)企業(yè)應(yīng)當(dāng)健全內(nèi)容審

核機(jī)制,依據(jù)意見(jiàn)落實(shí)總編輯負(fù)責(zé)制度,明確總編

輯在信息內(nèi)容審核方面的權(quán)利和所應(yīng)承擔(dān)的責(zé)任,

以建立總編輯對(duì)全產(chǎn)品、全鏈條信息內(nèi)容的審核工

作機(jī)制。4.3.1生成內(nèi)容審核義務(wù)從義務(wù)主體角度,深度合成服務(wù)提供者、生成

式人工智能服務(wù)提供者、應(yīng)用程序提供者、應(yīng)用程

序分發(fā)平臺(tái)、網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者、網(wǎng)絡(luò)信息內(nèi)容

服務(wù)平臺(tái)和互聯(lián)網(wǎng)信息服務(wù)提供者都應(yīng)當(dāng)對(duì)網(wǎng)絡(luò)信

息內(nèi)容負(fù)有責(zé)任。依據(jù)其性質(zhì),可以將這些主體分

為網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者、網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺(tái)和

網(wǎng)絡(luò)信息內(nèi)容服務(wù)提供者三類(lèi)。其中,

網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者就其制作、復(fù)制、發(fā)布相關(guān)信息承擔(dān)責(zé)任;網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺(tái)主

要就其提供的發(fā)布、下載、動(dòng)態(tài)加載等網(wǎng)絡(luò)信息內(nèi)

容傳播服務(wù)承擔(dān)責(zé)任,即信息內(nèi)容管理主體責(zé)任;

網(wǎng)絡(luò)信息內(nèi)容服務(wù)提供者則根據(jù)情況承擔(dān)不同的責(zé)

任,例如,生成式人工智能服務(wù)提供者依法承擔(dān)網(wǎng)4.3

內(nèi)容合規(guī)要求我國(guó)重視內(nèi)容治理,多部規(guī)范就生成內(nèi)容為企業(yè)設(shè)定了合規(guī)要求,具體包括內(nèi)容審核義務(wù)、內(nèi)容標(biāo)識(shí)義務(wù)和投訴處理機(jī)制。圖5人工智能生成內(nèi)容的合規(guī)要求第四章企業(yè)級(jí)

AI的合規(guī)要求15可信人工智能治理

白皮書(shū)4.3.2生成內(nèi)容標(biāo)識(shí)義務(wù)內(nèi)容標(biāo)識(shí)義務(wù)主要圍繞合成內(nèi)容展開(kāi)。算法推薦服務(wù)提供者負(fù)有對(duì)未作顯著標(biāo)識(shí)的算法生成合成

信息進(jìn)行標(biāo)識(shí)的義務(wù);深度合成服務(wù)提供者對(duì)使用其深度合成服務(wù)生成或者編輯的信息內(nèi)容,以及所

提供的特定深度合成服務(wù)可能導(dǎo)致公眾混淆或者誤

認(rèn)的,都負(fù)有標(biāo)識(shí)義務(wù);生成式人工智能服務(wù)提供

者負(fù)有對(duì)圖片、視頻等生成內(nèi)容進(jìn)行標(biāo)識(shí)的義務(wù)。內(nèi)容標(biāo)識(shí)的對(duì)象包括算法生成合成信息、深度合成的信息以及生成內(nèi)容,據(jù)此分析,標(biāo)識(shí)的目的

在于說(shuō)明相關(guān)內(nèi)容非真人產(chǎn)出的情況。因此,企業(yè)

應(yīng)當(dāng)重視內(nèi)容輸出時(shí)的標(biāo)識(shí)要求,根據(jù)具體情況采用顯式水印標(biāo)識(shí)或隱式水印標(biāo)識(shí),對(duì)人工智能生成內(nèi)容標(biāo)識(shí)“由AI生成”或“人工智能為您提供服務(wù)”等

字樣。4.3.3建立投訴舉報(bào)機(jī)制投訴舉報(bào)機(jī)制是保護(hù)用戶(hù)權(quán)益和體現(xiàn)透明度的

有效路徑。投訴舉報(bào)不僅是針對(duì)算法推薦內(nèi)容、深

度合成內(nèi)容和人工智能生成內(nèi)容的內(nèi)容合規(guī)的重要

路徑,同樣也是應(yīng)用程序合規(guī)的基本要求。企業(yè)應(yīng)

當(dāng)設(shè)置便捷的用戶(hù)申訴和公眾投訴、舉報(bào)入口,公

布投訴舉報(bào)方式,公布處理流程和反饋時(shí)限,及時(shí)

受理、處理公眾投訴舉報(bào)并反饋處理結(jié)果。第四章企業(yè)級(jí)

AI的合規(guī)要求16可信人工智能治理

白皮書(shū)05PART5.1風(fēng)險(xiǎn)治理架構(gòu)人工智能風(fēng)險(xiǎn)治理架構(gòu)旨在構(gòu)建一套周詳而立體的體系,

強(qiáng)化對(duì)人工智能潛在風(fēng)險(xiǎn)的管控效能,并提升人

工智能技術(shù)的可靠性與責(zé)任感。該架構(gòu)由若干緊密交織的層面組成,每一層面均針對(duì)人工智能治理的特定維度進(jìn)行深入考量和精細(xì)規(guī)劃,從而確保整個(gè)架構(gòu)的協(xié)同運(yùn)作與高效實(shí)施。通過(guò)這種多維度的治理機(jī)制,我們期望

實(shí)現(xiàn)對(duì)人工智能技術(shù)發(fā)展與應(yīng)用的全方位引導(dǎo),確保其在遵循倫理準(zhǔn)則和社會(huì)責(zé)任的前提下穩(wěn)健前行。第五章人工智能風(fēng)險(xiǎn)治理圖6人工智能風(fēng)險(xiǎn)治理框架第五章人工智能風(fēng)險(xiǎn)治理

17可信人工智能治理

白皮書(shū)危機(jī)時(shí)快速響應(yīng)和有效應(yīng)對(duì),減少對(duì)企業(yè)聲譽(yù)的負(fù)面影響。這種危機(jī)管理能力是企業(yè)聲譽(yù)保護(hù)的關(guān)鍵,

有助于企業(yè)在復(fù)雜多變的市場(chǎng)環(huán)境中保持穩(wěn)定發(fā)展,贏(yíng)得消費(fèi)者和社會(huì)的長(zhǎng)期信任。5.1.2風(fēng)險(xiǎn)治理架構(gòu)對(duì)創(chuàng)新的推動(dòng)在技術(shù)創(chuàng)新方面,人工智能風(fēng)險(xiǎn)治理架構(gòu)也有

著深遠(yuǎn)影響。它首先確保了技術(shù)創(chuàng)新活動(dòng)在安全可

控的范圍內(nèi)進(jìn)行,避免潛在的倫理和法律風(fēng)險(xiǎn)。通

過(guò)制定相應(yīng)的政策和標(biāo)準(zhǔn),人工智能風(fēng)險(xiǎn)治理架構(gòu)

能夠引導(dǎo)技術(shù)開(kāi)發(fā)者遵循最佳實(shí)踐,從而提高技術(shù)

創(chuàng)新的質(zhì)量和可靠性。進(jìn)一步地,人工智能風(fēng)險(xiǎn)治理架構(gòu)通過(guò)識(shí)別和

評(píng)估技術(shù)創(chuàng)新的潛在風(fēng)險(xiǎn),促進(jìn)了技術(shù)創(chuàng)新的健康

發(fā)展。該架構(gòu)賦予了相關(guān)部門(mén)前瞻性地采取措施的

能力,以減少負(fù)面影響,保護(hù)公眾利益,并通過(guò)維

護(hù)市場(chǎng)秩序和增強(qiáng)消費(fèi)者信心,為人工智能創(chuàng)新發(fā)

展注入了持續(xù)的活力。此外,人工智能風(fēng)險(xiǎn)治理架構(gòu)在全球化背景下

尤為重要,其促進(jìn)了跨國(guó)企業(yè)間的交流與合作。通

過(guò)共同制定和遵守統(tǒng)一的治理架構(gòu),各國(guó)企業(yè)可以

加強(qiáng)信息共享和經(jīng)驗(yàn)交流,共同應(yīng)對(duì)全球性挑戰(zhàn),人工智能風(fēng)險(xiǎn)治理架構(gòu)對(duì)企業(yè)的影響是多維度的,它不僅塑造了企業(yè)運(yùn)營(yíng)的穩(wěn)健性,也是推動(dòng)創(chuàng)

新和維護(hù)聲譽(yù)的關(guān)鍵因素。企業(yè)需要認(rèn)識(shí)到風(fēng)險(xiǎn)治

理的重要性,并積極構(gòu)建和實(shí)施這一架構(gòu),以實(shí)現(xiàn)

人工智能技術(shù)的健康發(fā)展和商業(yè)價(jià)值的最大化。通

過(guò)有效的風(fēng)險(xiǎn)治理,企業(yè)不僅能夠提升自身的競(jìng)爭(zhēng)

力,也能夠?yàn)樯鐣?huì)的可持續(xù)發(fā)展做出貢獻(xiàn)。人工智能風(fēng)險(xiǎn)治理架構(gòu)為企業(yè)提供了一個(gè)結(jié)構(gòu)

化的決策支持系統(tǒng)。通過(guò)風(fēng)險(xiǎn)識(shí)別和量化,企業(yè)能

夠更準(zhǔn)確地評(píng)估人工智能項(xiàng)目的風(fēng)險(xiǎn)和收益,做出更加科學(xué)和合理的決策。此外,該架構(gòu)還強(qiáng)調(diào)了風(fēng)

險(xiǎn)溝通的重要性,通過(guò)提高企業(yè)內(nèi)部和外部的風(fēng)險(xiǎn)

透明度,增強(qiáng)了公眾對(duì)企業(yè)決策的信任,為企業(yè)樹(shù)

立了積極的社會(huì)責(zé)任形象。同時(shí),人工智能風(fēng)險(xiǎn)治理架構(gòu)為企業(yè)在人工智能領(lǐng)域的創(chuàng)新嘗試和探索提供了一個(gè)安全的環(huán)境。

通過(guò)平衡風(fēng)險(xiǎn)管理和創(chuàng)新需求,企業(yè)能夠在保障安

全的前提下,實(shí)現(xiàn)可持續(xù)的創(chuàng)新發(fā)展。這種平衡策

略不僅有助于企業(yè)在市場(chǎng)中保持領(lǐng)先地位,也是企

業(yè)聲譽(yù)和品牌忠誠(chéng)度提升的基石。積極的人工智能風(fēng)險(xiǎn)治理還使企業(yè)能夠在面臨5.1.1風(fēng)險(xiǎn)治理架構(gòu)對(duì)企業(yè)的指導(dǎo)人工智能技術(shù)的崛起為企業(yè)提供了巨大的機(jī)遇,但同時(shí)也帶來(lái)了復(fù)雜的風(fēng)險(xiǎn)挑戰(zhàn)。因此,一個(gè)全面的人工

智能風(fēng)險(xiǎn)治理架構(gòu)對(duì)于企業(yè)來(lái)說(shuō)至關(guān)重要,它不僅關(guān)系到企業(yè)的合規(guī)性、安全性、社會(huì)責(zé)任和商業(yè)連續(xù)性,還

直接影響到企業(yè)的運(yùn)營(yíng)效率、決策質(zhì)量、創(chuàng)新能力和市場(chǎng)聲譽(yù)。人工智能風(fēng)險(xiǎn)治理架構(gòu)是企業(yè)應(yīng)對(duì)人工智能相關(guān)風(fēng)險(xiǎn)的基礎(chǔ),它包括風(fēng)險(xiǎn)識(shí)別、評(píng)估、監(jiān)控和緩解等多個(gè)環(huán)節(jié),涵蓋了數(shù)據(jù)管理、模型開(kāi)發(fā)、技術(shù)應(yīng)用和倫

理合規(guī)等多個(gè)方面。該治理架構(gòu)為企業(yè)提供了以下指導(dǎo)和建議: 在數(shù)據(jù)管理上建立嚴(yán)格的政策和流程,確保數(shù)據(jù)的質(zhì)量和安全,同時(shí)符合數(shù)據(jù)保護(hù)法規(guī)。這不僅提高了數(shù)據(jù)的可靠性,也為人工智能模型的開(kāi)發(fā)和部署提供了堅(jiān)實(shí)的基礎(chǔ)。

確保人工智能模型的開(kāi)發(fā)過(guò)程遵循公平性、透明度和可解釋性原則,避免算法偏見(jiàn)和歧視。這要求企業(yè)

在模型設(shè)計(jì)、訓(xùn)練和驗(yàn)證階段進(jìn)行嚴(yán)格的風(fēng)險(xiǎn)評(píng)估和測(cè)試。

建立實(shí)時(shí)監(jiān)控系統(tǒng),對(duì)人工智能系統(tǒng)的性能進(jìn)行持續(xù)評(píng)估,及時(shí)發(fā)現(xiàn)并應(yīng)對(duì)潛在風(fēng)險(xiǎn)。這不僅提高了系統(tǒng)的穩(wěn)定性和可靠性,也為風(fēng)險(xiǎn)管理和決策提供了實(shí)時(shí)數(shù)據(jù)支持。第五章人工智能風(fēng)險(xiǎn)治理

18可信人工智能治理

白皮書(shū)圖7人工智能生命周期及對(duì)應(yīng)風(fēng)險(xiǎn)模型管理人工智能生命周期是確保技術(shù)可信、合規(guī)和有效的關(guān)鍵。問(wèn)題識(shí)別是人工智能項(xiàng)目啟動(dòng)的初期階段,主要工作包括收集和分析用戶(hù)及業(yè)務(wù)需求,梳理合規(guī)要求以初步評(píng)估風(fēng)險(xiǎn),設(shè)計(jì)系統(tǒng)架構(gòu),規(guī)劃必要資源,制定項(xiàng)目計(jì)劃,為項(xiàng)目的順利實(shí)施打下堅(jiān)實(shí)基礎(chǔ)。在明確人工智能的設(shè)計(jì)需求后,就要開(kāi)始準(zhǔn)備訓(xùn)練人工智能所需的數(shù)據(jù)。這一階段的工作重點(diǎn)在于合法合

規(guī)地收集數(shù)據(jù),并通過(guò)清洗和標(biāo)注提高數(shù)據(jù)質(zhì)量,同時(shí)進(jìn)行特征工程以增強(qiáng)模型的預(yù)測(cè)能力。在開(kāi)展模型訓(xùn)練前,要選擇合適的算法,進(jìn)行調(diào)優(yōu),并在后續(xù)訓(xùn)練和驗(yàn)證過(guò)程中進(jìn)一步評(píng)估模型性能,確保其準(zhǔn)確性和泛化能力。進(jìn)入模型部署階段,工作轉(zhuǎn)向確保模型在生產(chǎn)環(huán)境中的穩(wěn)定運(yùn)行,包括制定和實(shí)施部署策略。在模型穩(wěn)定

運(yùn)行后,則側(cè)重于監(jiān)控模型性能,收集用戶(hù)反饋,并及時(shí)響應(yīng)任何性能下降或偏差。隨著環(huán)境變化,模型可能推動(dòng)全球技術(shù)創(chuàng)新的進(jìn)步。綜上所述,人工智能風(fēng)險(xiǎn)治理架構(gòu)對(duì)技術(shù)創(chuàng)新

具有積極的推動(dòng)作用,它不僅能夠保障技術(shù)創(chuàng)新的

安全性,還能夠促進(jìn)技術(shù)創(chuàng)新的健康發(fā)展和國(guó)際合

作,為全球人工智能技術(shù)創(chuàng)新的繁榮貢獻(xiàn)了力量。5.1.3風(fēng)險(xiǎn)治理架構(gòu)對(duì)市場(chǎng)的維護(hù)人工智能風(fēng)險(xiǎn)治理架構(gòu)在維護(hù)市場(chǎng)公平競(jìng)爭(zhēng)中

也發(fā)揮著至關(guān)重要的作用。首先,它有助于確保人

工智能技術(shù)的合規(guī)性,防止濫用人工智能造成市場(chǎng)

壟斷或不正當(dāng)競(jìng)爭(zhēng)。通過(guò)制定嚴(yán)格的倫理標(biāo)準(zhǔn)和監(jiān)

管措施,該架構(gòu)能夠限制企業(yè)利用算法優(yōu)勢(shì)排擠競(jìng)

爭(zhēng)對(duì)手,維護(hù)市場(chǎng)的公平性。其次,人工智能風(fēng)險(xiǎn)治理架構(gòu)通過(guò)增強(qiáng)透明度

和問(wèn)責(zé)制,加深了市場(chǎng)參與者之間的信任。透明的決策過(guò)程和明確的責(zé)任歸屬使消費(fèi)者和其他利益相關(guān)者更容易認(rèn)可人工智能市場(chǎng)的公平性,這對(duì)于保

持市場(chǎng)秩序和穩(wěn)定至關(guān)重要。最后,人工智能風(fēng)險(xiǎn)治理架構(gòu)還有助于應(yīng)對(duì)數(shù)

據(jù)安全、隱私侵犯等潛在風(fēng)險(xiǎn)和挑戰(zhàn)。通過(guò)預(yù)防和

解決這些問(wèn)題,該架構(gòu)不僅保護(hù)了消費(fèi)者權(quán)益,也

維護(hù)了整個(gè)市場(chǎng)生態(tài)的健康發(fā)展。綜上所述,人工智能風(fēng)險(xiǎn)治理架構(gòu)通過(guò)確保技

術(shù)合規(guī)性、促進(jìn)透明度和問(wèn)責(zé)制、以及有效應(yīng)對(duì)風(fēng)

險(xiǎn)挑戰(zhàn),共同營(yíng)造了一個(gè)公平、透明和健康的市場(chǎng)

環(huán)境。這些措施不僅維護(hù)了市場(chǎng)的競(jìng)爭(zhēng)秩序,也為

所有參與者創(chuàng)造了一個(gè)更加穩(wěn)定和可預(yù)測(cè)的商業(yè)氛

圍。5.2生命周期風(fēng)險(xiǎn)治理第五章人工智能風(fēng)險(xiǎn)治理

19可信人工智能治理

白皮書(shū)5.2.1風(fēng)險(xiǎn)管理左移風(fēng)險(xiǎn)管理左移旨在將風(fēng)險(xiǎn)評(píng)估和緩解提前到項(xiàng)

目生命周期的起始階段,其核心在于盡早識(shí)別潛在

風(fēng)險(xiǎn)。企業(yè)需要在規(guī)劃和設(shè)計(jì)階段深入分析項(xiàng)目需

求,評(píng)估技術(shù)可行性,預(yù)測(cè)資源需求,并識(shí)別潛在

合規(guī)性與倫理問(wèn)題。這種做法有助于企業(yè)制定全面

的預(yù)防策略,減少后期返工和成本,確保項(xiàng)目順利

推進(jìn)。在項(xiàng)目啟動(dòng)初期,企業(yè)必須進(jìn)行全面的合規(guī)性

審查,確保符合法律法規(guī)、數(shù)據(jù)保護(hù)、隱私標(biāo)準(zhǔn)、

知識(shí)產(chǎn)權(quán)和倫理準(zhǔn)則。這一過(guò)程旨在預(yù)防法律和合

規(guī)風(fēng)險(xiǎn),確立合法的項(xiàng)目設(shè)計(jì)和實(shí)施框架,增強(qiáng)各

利益方的信任。同時(shí),企業(yè)應(yīng)制定合規(guī)策略和控制措施,保障項(xiàng)目持續(xù)遵循規(guī)定,為項(xiàng)目的順利進(jìn)行

和成功交付奠定基礎(chǔ)。當(dāng)企業(yè)考慮與第三方合作人工智能項(xiàng)目時(shí),需

要對(duì)其資質(zhì)、信譽(yù)和技術(shù)能力進(jìn)行嚴(yán)格評(píng)估和審查,

并簽訂服務(wù)水平協(xié)議、合同等明確各自的責(zé)任和義

務(wù)。同時(shí),企業(yè)還需建立一套有效的監(jiān)督機(jī)制,確

保第三方服務(wù)提供商的行為符合企業(yè)的風(fēng)險(xiǎn)管理政

策和標(biāo)準(zhǔn)。高質(zhì)量數(shù)據(jù)集的構(gòu)建是保障可信人工智能準(zhǔn)確

性、公平性的基礎(chǔ)。企業(yè)需確保數(shù)據(jù)的合法合規(guī)采集、

數(shù)據(jù)源的可信度和透明度以及數(shù)據(jù)集的多樣性和代

表性;同時(shí),還應(yīng)開(kāi)展數(shù)據(jù)清洗、預(yù)處理和標(biāo)注工作,

輔以機(jī)器

/人工審核和校對(duì),提升后續(xù)模型訓(xùn)練的效

率。在進(jìn)行數(shù)據(jù)集管理時(shí),企業(yè)應(yīng)詳細(xì)記錄數(shù)據(jù)的來(lái)源、構(gòu)成情況以及預(yù)處理操作,并進(jìn)行文檔化記錄,確保數(shù)據(jù)的可追溯性和透明度。為提高模型的時(shí)效

性和預(yù)測(cè)能力,企業(yè)還應(yīng)加強(qiáng)數(shù)據(jù)集的可擴(kuò)展性和可維護(hù)性,定期更新數(shù)據(jù)集的同時(shí)完善數(shù)據(jù)集的版

本控制。此外,數(shù)據(jù)安全與隱私保護(hù)是數(shù)據(jù)集管理

的另一核心,企業(yè)需通過(guò)加密和訪(fǎng)問(wèn)控制等措施來(lái)

保護(hù)數(shù)據(jù),并定期開(kāi)展合規(guī)性與倫理審查。5.2.2敏捷管理模式敏捷管理模式強(qiáng)調(diào)快速響應(yīng)和持續(xù)改進(jìn),風(fēng)險(xiǎn)治理需與這一理念相匹配,確保在整個(gè)生命周期中,

風(fēng)險(xiǎn)得到及時(shí)識(shí)別、評(píng)估和控制。首先,在進(jìn)行模型選擇時(shí),需要評(píng)估不同模型

的理論基礎(chǔ)、性能指標(biāo)和適用性,選擇在準(zhǔn)確性、

泛化能力、魯棒性、可追溯性和可解釋性方面表現(xiàn)

最佳的模型。同時(shí),考慮到潛在的風(fēng)險(xiǎn),如數(shù)據(jù)偏

見(jiàn)、模型復(fù)雜性和對(duì)抗性攻擊等脆弱性,要選擇在

源頭上最小化這些風(fēng)險(xiǎn)的模型。此外,模型選擇還

應(yīng)考慮合規(guī)性和倫理性,確保所選模型符合法律法

規(guī)和行業(yè)標(biāo)準(zhǔn),且避免對(duì)特定群體產(chǎn)生不公平的影

響。對(duì)于訓(xùn)練、優(yōu)化模型所使用的算法,企業(yè)需要深入理解它們的優(yōu)缺點(diǎn)和適用場(chǎng)景以選擇最佳方案。

在此基礎(chǔ)上,設(shè)計(jì)算法原型并進(jìn)行初步測(cè)試,以評(píng)

估算法在實(shí)際應(yīng)用中的可行性和性能。同時(shí),要在

算法開(kāi)發(fā)的早期階段就進(jìn)行機(jī)制機(jī)理的審核,確保

算法的目的、采用的技術(shù)、干預(yù)的方式等均符合預(yù)

期目標(biāo)和倫理標(biāo)準(zhǔn)。在模型訓(xùn)練階段,有效的模型訓(xùn)練管理確保了會(huì)經(jīng)過(guò)變更完成迭代,這一過(guò)程需要優(yōu)化模型以適應(yīng)新數(shù)據(jù)或業(yè)務(wù)需求,同時(shí)進(jìn)行影響評(píng)估和測(cè)試以確保變更的有效性。最終,若模型不再使用,還需考慮知識(shí)保留和數(shù)據(jù)存檔,確保平穩(wěn)過(guò)渡和歷史數(shù)據(jù)的安全性。管理人工智能生命周期中的風(fēng)險(xiǎn)是實(shí)現(xiàn)監(jiān)管機(jī)構(gòu)所提倡的可信人工智能的關(guān)鍵。在整個(gè)人工智能生命周期

中,風(fēng)險(xiǎn)無(wú)處不在,企業(yè)需要從生命周期的各個(gè)階段入手,建立全面的風(fēng)險(xiǎn)治理機(jī)制,確保人工智能系統(tǒng)在設(shè)計(jì)、

開(kāi)發(fā)、部署和運(yùn)行的每個(gè)環(huán)節(jié)都符合監(jiān)管要求,減少風(fēng)險(xiǎn)發(fā)生的可能性,提高系統(tǒng)的可靠性和用戶(hù)的信任度。這不僅有助于保護(hù)用戶(hù)隱私和數(shù)據(jù)安全,也有助于企業(yè)在快速變化的市場(chǎng)中保持競(jìng)爭(zhēng)力,實(shí)現(xiàn)可持續(xù)發(fā)展和可

信人工智能的目標(biāo)。第五章人工智能風(fēng)險(xiǎn)治理

20可信人工智能治理

白皮書(shū)人工智能模型的高效開(kāi)發(fā)和性能優(yōu)化。這一過(guò)程包括資源合理分配、自動(dòng)化超參數(shù)調(diào)優(yōu)、實(shí)施訓(xùn)練指

標(biāo)監(jiān)控等,并采取正則化和數(shù)據(jù)增強(qiáng)策略防止過(guò)擬

合。同時(shí),維護(hù)數(shù)據(jù)質(zhì)量、實(shí)施版本控制、保存模

型狀態(tài)、記錄詳細(xì)日志,以及確保訓(xùn)練過(guò)程的安全性,

都是提升模型可復(fù)現(xiàn)性、可追蹤性和透明度的基礎(chǔ)

措施。在人工智能模型部署前進(jìn)行測(cè)試是確保其安全

性和可靠性的一項(xiàng)關(guān)鍵措施。通過(guò)功能、性能、安

全性測(cè)試和合規(guī)性檢查,可以對(duì)模型的準(zhǔn)確性、穩(wěn)

定性、透明度、可解釋性、隱私保護(hù)和公平性開(kāi)展

綜合評(píng)估。其目的在于發(fā)現(xiàn)并修復(fù)模型中的漏洞,

保證其在面對(duì)各種可能的攻擊和濫用時(shí)的魯棒性。

同時(shí),制定靈活的部署策略至關(guān)重要。可以通過(guò)模

塊化部署等方式確保模型與現(xiàn)有系統(tǒng)的兼容性。通

常建議企業(yè)實(shí)施隔離部署,將人工智能系統(tǒng)或關(guān)鍵

組件部署在隔離環(huán)境中,以控制交互風(fēng)險(xiǎn)。此外,

通過(guò)自動(dòng)化監(jiān)控和彈性擴(kuò)展機(jī)制動(dòng)態(tài)調(diào)整資源,可

以應(yīng)對(duì)用戶(hù)和數(shù)據(jù)量的增長(zhǎng),保障模型性能和系統(tǒng)

穩(wěn)定性。企業(yè)應(yīng)及時(shí)收集和

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論