




版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
版權(quán)聲明COPYRIGHT
STATEMENT本報(bào)告版權(quán)屬于出品方所有,并受法律保護(hù)。轉(zhuǎn)載、摘編或利用其
他方式使用報(bào)告文字或者觀(guān)點(diǎn)的,應(yīng)注明來(lái)源。違反上述聲明者,
本單位將追究其相關(guān)法律責(zé)任。出品方安永(中國(guó))企業(yè)咨詢(xún)有限公司
上海市人工智能與社會(huì)發(fā)展研究會(huì)21世紀(jì)人類(lèi)社會(huì)迎來(lái)了前所未有的技術(shù)革命——人工智能(AI)的興起。它以迅雷不
及掩耳之勢(shì),滲透到我們生活的方方面面,重塑著我們的認(rèn)知和社會(huì)格局。它不僅極大地
提高了生產(chǎn)效率,還為解決復(fù)雜的社會(huì)問(wèn)題提供了新的視角和工具。然而,隨著AI技術(shù)的迅猛發(fā)展,其所帶來(lái)的倫理、法律和社會(huì)問(wèn)題也日益凸顯,
如何確保AI技術(shù)的“可信”屬性,
成為全球關(guān)注的焦點(diǎn)。在此背景下,
《可信人工智能治理白皮書(shū)》應(yīng)運(yùn)而生。本白皮書(shū)由安永(中國(guó))企業(yè)咨詢(xún)有限公司和上海市人工智能社會(huì)發(fā)展研究會(huì)聯(lián)合撰寫(xiě),
旨在深入探討人工智能的全球發(fā)展態(tài)勢(shì)、監(jiān)管體系、可信原則、關(guān)鍵問(wèn)題、企業(yè)合規(guī)要求、風(fēng)險(xiǎn)治理理論、進(jìn)階工具以及行業(yè)洞察等多個(gè)方面。我們希望通過(guò)這份白皮書(shū),
為政策制定者、企業(yè)管理者、技術(shù)開(kāi)發(fā)者以及所有關(guān)心AI發(fā)展的讀者,提供一份全面、深入、客觀(guān)的參考和指導(dǎo)。在這份白皮書(shū)中,我們將重點(diǎn)探討“可信人工智能”的內(nèi)涵,分析其在算法透明度、數(shù)
據(jù)安全、倫理道德等方面所面臨的挑戰(zhàn)。同時(shí),我們也將關(guān)注企業(yè)在A(yíng)I應(yīng)用中的合規(guī)要求以及風(fēng)險(xiǎn)治理這一AI發(fā)展中的重要議題。本白皮書(shū)將詳細(xì)闡述風(fēng)險(xiǎn)治理架構(gòu)的構(gòu)建,以及
如何在A(yíng)I的生命周期中實(shí)施有效的風(fēng)險(xiǎn)管理。此外,我們還將介紹企業(yè)AI治理的進(jìn)階工具——可信AI等級(jí)標(biāo)識(shí),為企業(yè)構(gòu)建和完善自身的AI治理體系提供實(shí)用的指導(dǎo)。在提供有效的
AI治理工具的同時(shí),我們也將聚焦具有啟發(fā)性的行業(yè)實(shí)踐。我們將深入
分析汽車(chē)、醫(yī)藥、零售、服務(wù)等行業(yè)在A(yíng)I應(yīng)用上的現(xiàn)狀和挑戰(zhàn),以及這些行業(yè)如何構(gòu)建和
運(yùn)營(yíng)自己的AI管理體系。通過(guò)這些行業(yè)案例,我們希望能夠?yàn)樽x者提供具體的行業(yè)應(yīng)用視角,以及在實(shí)際操作中可能遇到的問(wèn)題和解決方案。在這份白皮書(shū)的撰寫(xiě)過(guò)程中,我們深刻感受到
AI
技術(shù)的發(fā)展不僅僅是技術(shù)層面的突破,
更是對(duì)人類(lèi)社會(huì)價(jià)值觀(guān)、倫理道德和法律體系的一次全面考驗(yàn)。我們相信,只有通過(guò)不斷提高對(duì)風(fēng)險(xiǎn)的把控能力,預(yù)判、分析和應(yīng)對(duì)潛在的治理問(wèn)題,建立起一套公正、透明、高效的AI治理體系,才能確保AI技術(shù)的健康發(fā)展,讓它成為推動(dòng)人類(lèi)社會(huì)進(jìn)步的正能量。在此,我們誠(chéng)摯地邀請(qǐng)您一同走進(jìn)AI的世界,探索其無(wú)限可能,同時(shí)也思考和面對(duì)它
所帶來(lái)的挑戰(zhàn)。讓我們攜手前行,在A(yíng)I的時(shí)代中,共同尋找可信AI實(shí)現(xiàn)的最佳路徑。前言FOREWORD第一章全球人工智能發(fā)展與監(jiān)管體系1.1全球人工智能發(fā)展概述1.1.1
歐盟人工智能發(fā)展1.1.2美國(guó)人工智能發(fā)展1.1.3
中國(guó)人工智能發(fā)展1.2“可信人工智能”概念提出第二章人工智能的可信原則2.1G20人工智能可信原則2.2歐盟可信人工智能原則2.3安永觀(guān)點(diǎn):可信人工智能原則第三章可信人工智能的關(guān)鍵問(wèn)題3.1算法黑箱與信息繭房問(wèn)題3.2算法偏見(jiàn)問(wèn)題3.3數(shù)據(jù)安全問(wèn)題3.3.1底層數(shù)據(jù)源3.3.2數(shù)據(jù)泄露3.3.3
出海涉及相關(guān)數(shù)據(jù)出境規(guī)制3.4
內(nèi)生安全問(wèn)題3.4.1人工智能基礎(chǔ)設(shè)施安全風(fēng)險(xiǎn)3.4.2數(shù)據(jù)安全風(fēng)險(xiǎn)3.4.3模型安全風(fēng)險(xiǎn)3.4.4應(yīng)用服務(wù)安全風(fēng)險(xiǎn)3.5科技倫理問(wèn)題第四章企業(yè)級(jí)AI的合規(guī)要求4.1資質(zhì)監(jiān)管要求4.1.1互聯(lián)網(wǎng)信息服務(wù)提供者的基礎(chǔ)資質(zhì)4.1.2提供具體服務(wù)的特殊資質(zhì)4.2算法合規(guī)要求4.2.1算法備案要求4.2.2算法評(píng)估要求4.2.3算法透明性要求4.3
內(nèi)容合規(guī)要求4.3.1生成內(nèi)容審核義務(wù)4.3.2生成內(nèi)容標(biāo)識(shí)義務(wù)4.3.3建立投訴舉報(bào)機(jī)制11112355668899101010101010111111121212121313131415151616目錄Comtents可信人工智能治理
白皮書(shū)第五章人工智能風(fēng)險(xiǎn)治理5.1風(fēng)險(xiǎn)治理架構(gòu)5.1.1風(fēng)險(xiǎn)治理架構(gòu)對(duì)企業(yè)的指導(dǎo)5.1.2風(fēng)險(xiǎn)治理架構(gòu)對(duì)創(chuàng)新的推動(dòng)5.1.3風(fēng)險(xiǎn)治理架構(gòu)對(duì)市場(chǎng)的維護(hù)5.2生命周期風(fēng)險(xiǎn)治理5.2.1風(fēng)險(xiǎn)管理左移5.2.2敏捷管理模式5.2.3審慎評(píng)估及監(jiān)控5.3人員風(fēng)險(xiǎn)治理第六章企業(yè)
AI治理進(jìn)階工具6.1AI治理國(guó)際標(biāo)準(zhǔn)6.1.1ISO42001
的意義與價(jià)值6.1.2
ISO42001
內(nèi)容簡(jiǎn)介6.2AI治理可信等級(jí)管理6.2.1可信AI治理等級(jí)標(biāo)識(shí)6.2.2可信AI治理等級(jí)標(biāo)識(shí)服務(wù)6.2.3可信AI治理重點(diǎn)領(lǐng)域解析第七章行業(yè)洞察與
AI治理情況調(diào)研7.1汽車(chē)行業(yè)調(diào)研7.1.1汽車(chē)行業(yè)人工智能技術(shù)的應(yīng)用7.1.2汽車(chē)行業(yè)對(duì)人工智能技術(shù)應(yīng)用的普遍認(rèn)知7.1.3汽車(chē)行業(yè)人工智能技術(shù)應(yīng)用的挑戰(zhàn)7.1.4汽車(chē)行業(yè)人工智能管理體系的搭建與運(yùn)營(yíng)7.2
醫(yī)藥行業(yè)調(diào)研7.2.1
醫(yī)藥行業(yè)人工智能技術(shù)的應(yīng)用7.2.2
醫(yī)藥行業(yè)對(duì)人工智能技術(shù)應(yīng)用的普遍認(rèn)知7.2.3
醫(yī)藥行業(yè)人工智能技術(shù)應(yīng)用的挑戰(zhàn)7.2.4
醫(yī)藥行業(yè)人工智能管理體系的搭建與運(yùn)營(yíng)7.3零售行業(yè)調(diào)研7.3.1零售行業(yè)人工智能技術(shù)的應(yīng)用7.3.2零售行業(yè)對(duì)人工智能技術(shù)應(yīng)用的普遍認(rèn)知7.3.3零售行業(yè)人工智能技術(shù)應(yīng)用的挑戰(zhàn)7.3.4零售行業(yè)人工智能管理體系的搭建和運(yùn)營(yíng)17171818191920202122232323242424252528282828292929303030313131323232目錄Comtents可信人工智能治理
白皮書(shū)第七章行業(yè)洞察與
AI治理情況調(diào)研7.4服務(wù)行業(yè)調(diào)研7.4.1服務(wù)行業(yè)人工智能的應(yīng)用7.4.2服務(wù)行業(yè)對(duì)人工智能技術(shù)應(yīng)用的普遍認(rèn)知7.4.3服務(wù)行業(yè)人工智能技術(shù)應(yīng)用的挑戰(zhàn)7.4.4服務(wù)行業(yè)人工智能管理體系的搭建與運(yùn)營(yíng)第八章AI應(yīng)用的典型案例8.1典型案例一:某互聯(lián)網(wǎng)平臺(tái)公司內(nèi)部人工智能技術(shù)應(yīng)用8.1.1人工智能技術(shù)使用現(xiàn)狀8.1.2人工智能模型使用與評(píng)估8.1.3人工智能技術(shù)投入分析8.2典型案例二:典型案例二:某汽車(chē)公司內(nèi)部人工智能技術(shù)應(yīng)用8.2.1人工智能模型使用現(xiàn)狀8.2.2人工智能模型使用與評(píng)估8.2.3人工智能技術(shù)投入分析結(jié)語(yǔ)參考文獻(xiàn)目錄Comtents2833333434353636363637373738383939可信人工智能治理
白皮書(shū)第一章全球人工智能發(fā)展與監(jiān)管體系01當(dāng)前,全球人工智能正處于技術(shù)創(chuàng)新、重塑行業(yè)、重新定義我們與技術(shù)互動(dòng)方式的快速更迭階段。AI技術(shù)已經(jīng)走出實(shí)驗(yàn)室,逐漸嵌入醫(yī)療、金融、零售、制造、交通、娛樂(lè)
等行業(yè)領(lǐng)域的各項(xiàng)應(yīng)用之中,社會(huì)也隨之展開(kāi)深刻變革。據(jù)
Fortune
Business
Insights預(yù)
測(cè),人工智能市場(chǎng)預(yù)計(jì)將在未來(lái)十年內(nèi)出現(xiàn)強(qiáng)勁增長(zhǎng),預(yù)計(jì)將從2024年的6211.9億美元
增長(zhǎng)到2032年27404.6億美元1。面對(duì)這一潛力巨大的顛覆性技術(shù),全球各國(guó)競(jìng)相發(fā)力,
正在共同將人工智能發(fā)展推向時(shí)代浪潮頂峰。PART制,以促進(jìn)自愿適用高風(fēng)險(xiǎn)人工智能系統(tǒng)的部分或全部強(qiáng)制性要求。此外,歐盟委員會(huì)正在制定《人工智能責(zé)任指令》
(Artificial
Intelligence
Liability
Directive),
該指令
草案提出于2022年9月28
日,
旨在為人工智能系
統(tǒng)造成的、非合同類(lèi)責(zé)任的特定類(lèi)型損害提供統(tǒng)
一
規(guī)則,解決舉證責(zé)任難的問(wèn)題,確保受到人工智能技術(shù)傷害的人能夠獲得經(jīng)濟(jì)補(bǔ)償。該提案共九條,
主要規(guī)定了高風(fēng)險(xiǎn)人工智能提供者的證據(jù)披露義務(wù)、
過(guò)錯(cuò)與
AI輸出之間因果關(guān)系的推定兩方面核心內(nèi)容。1.1.2美國(guó)人工智能發(fā)展美國(guó)正在選擇
一
種針對(duì)特定行業(yè)的方法
(sector-specific
approach)。2023年9月,
美國(guó)參議員和眾議員提出的《2023年算法問(wèn)責(zé)法案》草
案(AlgorithmicAccountabilityActof2023)為受人
工智能系統(tǒng)影響的人們提供了新的保護(hù)措施。該法案適用于用于關(guān)鍵決策的新型生成式人工智能系統(tǒng),1.1.1歐盟人工智能發(fā)展歐盟《人工智能法案》是全球首部全面且具影
響力的人工智能法規(guī),于
2024
年
5
月
21日獲批通過(guò),
并于2024年8月1
日正式生效。該法案將“人工智
能系統(tǒng)”定義為一種基于機(jī)器的系統(tǒng),被設(shè)計(jì)為以不
同程度的自主性運(yùn)行,并且在部署后可能表現(xiàn)出適
應(yīng)性。該系統(tǒng)基于明確或隱含的目標(biāo),從接收到的輸入中推斷如何生成可影響物理或虛擬環(huán)境的輸出,例如預(yù)測(cè)、內(nèi)容、推薦或決策。《人工智能法案》
采取了基于風(fēng)險(xiǎn)的方法,將人工智能系統(tǒng)分為最低
風(fēng)險(xiǎn)、低風(fēng)險(xiǎn)、高風(fēng)險(xiǎn)和不可接受風(fēng)險(xiǎn)這四級(jí)。其中,認(rèn)知行為操縱和社會(huì)評(píng)分等具有不被接受風(fēng)險(xiǎn)的人
工智能系統(tǒng)被禁止進(jìn)入歐盟市場(chǎng);高風(fēng)險(xiǎn)人工智能
系統(tǒng)需要獲得批準(zhǔn),同時(shí)需要遵守技術(shù)要求、風(fēng)險(xiǎn)
管理、數(shù)據(jù)治理、透明度等一系列要求和義務(wù)才被
允許進(jìn)入歐盟市場(chǎng);其他非高風(fēng)險(xiǎn)人工智能系統(tǒng)的
提供者則被鼓勵(lì)制定行為守則,包括相關(guān)的治理機(jī)1.1全球人工智能發(fā)展概述截至2024年,全球共有69個(gè)國(guó)家和地區(qū)制定了人工智能相關(guān)政策和立法,涵蓋了從
AI治理、隱私保護(hù)、
數(shù)據(jù)監(jiān)管到倫理規(guī)范等廣泛的主題,反映了各國(guó)對(duì)
AI技術(shù)發(fā)展的重視及其潛在風(fēng)險(xiǎn)的管理需求。以下國(guó)家或地區(qū)明確針對(duì)人工智能出臺(tái)了立法或監(jiān)管要求:第一章全球人工智能發(fā)展與監(jiān)管體系
01可信人工智能治理
白皮書(shū)intelligencesystems)的法案。該法案將高風(fēng)險(xiǎn)人工智能系統(tǒng)定義為任何在投入使用時(shí)能夠做出重大決
策或在做出重大決策中起到關(guān)鍵作用的人工智能系
統(tǒng),要求高風(fēng)險(xiǎn)人工智能系統(tǒng)的開(kāi)發(fā)者(developer)
向部署者(deployer)披露有關(guān)高風(fēng)險(xiǎn)系統(tǒng)的特定信
息、提供完成影響評(píng)估所需的信息和文件,并要求
部署者實(shí)施風(fēng)險(xiǎn)管理政策和程序,定期進(jìn)行影響評(píng)
估,并向消費(fèi)者披露其交互對(duì)象的人工智能系統(tǒng)的
某些通知,以避免高風(fēng)險(xiǎn)人工智能系統(tǒng)內(nèi)的算法歧視。再如,
2022年伊利諾伊州頒布了《人工智能視
頻面試法案》(Artificial
IntelligenceVideo
InterviewAct
in2022)
,對(duì)使用人工智能分析視頻面試的雇
主提出要求。加利福尼亞州、新澤西州、紐約州、佛蒙特州和華盛頓特區(qū)也提出了相關(guān)立法,規(guī)范人
工智能在招聘和晉升中的使用。1.1.3
中國(guó)人工智能發(fā)展2024年5月,“人工智能法草案”被列入《國(guó)務(wù)
院2024年度立法工作計(jì)劃》。盡管目前我國(guó)尚未出
臺(tái)人工智能專(zhuān)門(mén)立法,但已初步建立限制和規(guī)范人
工智能開(kāi)發(fā)與應(yīng)用的法律框架,即以《中華人民共
和國(guó)網(wǎng)絡(luò)安全法》《中華人民共和國(guó)數(shù)據(jù)安全法》《中
華人民共和國(guó)個(gè)人信息保護(hù)法》以及《中華人民共
和國(guó)科學(xué)技術(shù)進(jìn)步法》為基礎(chǔ),由《互聯(lián)網(wǎng)信息服
務(wù)算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成
管理規(guī)定》《生成式人工智能服務(wù)管理暫行辦法》
等一系列規(guī)范文件發(fā)揮主要監(jiān)管作用,同時(shí)配有《互聯(lián)網(wǎng)信息服務(wù)管理辦法》《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理
規(guī)定》《具有輿論屬性或社會(huì)動(dòng)員能力的互聯(lián)網(wǎng)信
息服務(wù)安全評(píng)估規(guī)定》等關(guān)聯(lián)法律法規(guī)。其中,
《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》
構(gòu)建了算法監(jiān)管的機(jī)制,確定了算法服務(wù)的監(jiān)管部
門(mén),為算法服務(wù)提供者設(shè)定了算法備案等合規(guī)義務(wù)
與監(jiān)管要求義務(wù);
《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》進(jìn)一步規(guī)范了深度合成服務(wù)提供者、技術(shù)支撐者的行為;《生成式人工智能服務(wù)管理暫行辦法》以及其他人工智能和自動(dòng)化系統(tǒng),要求公司評(píng)估其使用和銷(xiāo)售的人工智能系統(tǒng)的影響,為何時(shí)以及如何使用此類(lèi)系統(tǒng)創(chuàng)造新的透明度,使消費(fèi)者能夠在
與人工智能系統(tǒng)交互時(shí)做出明智的選擇。同年10月,拜登總統(tǒng)簽署了一項(xiàng)人工智能行
政命令《關(guān)于安全、可靠和可信賴(lài)地開(kāi)發(fā)和使用人
工智能的行政命令》(ExecutiveOrderonthe
Safe,
Secure,
and
Trustworthy
Development
and
Use
of
Artificial
Intelligence),為人工智能安全、安保、隱
私保護(hù)、促進(jìn)公平和公民權(quán)利、促進(jìn)競(jìng)爭(zhēng)和創(chuàng)新建
立了新的基準(zhǔn)。該行政命令要求制定一份國(guó)家安全
備忘錄,以指導(dǎo)人工智能在軍事和情報(bào)行動(dòng)中的安
全和合乎道德的應(yīng)用,確保保護(hù)美國(guó)人的隱私,并
培育一個(gè)開(kāi)放、競(jìng)爭(zhēng)激烈的人工智能市場(chǎng),強(qiáng)調(diào)美
國(guó)的創(chuàng)新。為應(yīng)對(duì)人工智能生成內(nèi)容的知識(shí)產(chǎn)權(quán)挑戰(zhàn),美國(guó)專(zhuān)利商標(biāo)局(USPTO)和版權(quán)局(USCO)
已
經(jīng)發(fā)布了相關(guān)執(zhí)法行動(dòng)和指南。2024年2月,美
國(guó)專(zhuān)利商標(biāo)局發(fā)布的關(guān)于人工智能輔助發(fā)明的詳細(xì)
指
南(AI
and
inventorship
guidance:
Incentivizinghuman
ingenuity
and
investment
in
AI-assisted
inventions)明確規(guī)定了AI輔助創(chuàng)新中的發(fā)明權(quán)確定
問(wèn)題,即人類(lèi)貢獻(xiàn)必須足夠顯著才能獲得專(zhuān)利保護(hù)。2023年,美國(guó)版權(quán)局發(fā)布的“包含人工智能生成材料的
作品”(Works
Containing
Material
Generated
byArtificial
Intelligence)
的政策規(guī)定,
如果作品純粹由
AI生成,除非有顯著的人類(lèi)創(chuàng)作參與,否則不符合版權(quán)保護(hù)條件。如果人類(lèi)在
AI
生成材料的選擇、
安排或修改中作出了重大貢獻(xiàn),則人類(lèi)創(chuàng)作元素可
獲得版權(quán)保護(hù)。此外,
美國(guó)一些州也已經(jīng)在人工智能相關(guān)領(lǐng)
域制定監(jiān)管法律。例如,2024
年
5
月
17
日,
科羅
拉多州州長(zhǎng)簽署了參議院第24-205號(hào)《關(guān)于在人
工智能系統(tǒng)交互中保護(hù)消費(fèi)者權(quán)益》(Concerning
consumer
protections
in
interactions
with
artificial第一章全球人工智能發(fā)展與監(jiān)管體系
02可信人工智能治理
白皮書(shū)圖1
中美歐人工智能監(jiān)管區(qū)分1.2“可信人工智能”概念提出人工智能的可信已經(jīng)成為全球各國(guó)在發(fā)展人工智能中的一致性原則。全球范圍內(nèi)諸多自律性標(biāo)準(zhǔn)或文件都
對(duì)“可信人工智能”提出了具體要求。對(duì)生成式人工智能服務(wù)提供者規(guī)定了數(shù)據(jù)和基礎(chǔ)模型的來(lái)源合法、數(shù)據(jù)標(biāo)注、網(wǎng)絡(luò)安全、未成年人保
護(hù)以及評(píng)估備案等一系列合規(guī)義務(wù),明確了提供者
的網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者責(zé)任。隨著全球各國(guó)逐步加大對(duì)人工智能技術(shù)的立法
和監(jiān)管力度,各種法律和監(jiān)管規(guī)范不斷涌現(xiàn)。然而,僅僅依靠法律和監(jiān)管并不足以全面應(yīng)對(duì)人工智能帶來(lái)的技術(shù)黑箱、信息隱匿、責(zé)任錯(cuò)綜復(fù)雜等多維度
的挑戰(zhàn),與之對(duì)應(yīng)的治理能力明顯具有滯后性,可
信人工智能治理已然成為全球各國(guó)確保前沿技術(shù)創(chuàng)
新、先進(jìn)法律制度發(fā)展和國(guó)家安全的核心議題。圖2全球自律性文件及“可信人工智能”概念第一章全球人工智能發(fā)展與監(jiān)管體系
03可信人工智能治理
白皮書(shū)歐盟《可信人工智能倫理指南》《G20人工智能原則》《人工智能風(fēng)險(xiǎn)管理框架》和《G7行為準(zhǔn)則》共同關(guān)注著人工智能的技術(shù)穩(wěn)健性和安全性、AI系統(tǒng)透明度、非歧視和非偏見(jiàn)的公平性以及可問(wèn)責(zé)性。在此基礎(chǔ)上,本白皮書(shū)將“可信人工智能”定義為設(shè)計(jì)、開(kāi)發(fā)和部署技術(shù)可靠、安全,
能夠輸出不帶歧視和偏見(jiàn)的公正結(jié)果,
基本原理和運(yùn)行過(guò)程透明,可問(wèn)責(zé)且以人為本的人工智能系統(tǒng)。在我們開(kāi)始探究可信人工智能相關(guān)問(wèn)題之前,需要首先對(duì)可信人工智能提供者、部署者等概念進(jìn)行界定,厘清概念之間相關(guān)性。在人工智能的語(yǔ)境中,提經(jīng)常被本白皮書(shū)采用歐盟《人工智能法》第三條對(duì)于提供者(provider)和部署
者(deployer)的定義。
提供者(provider):開(kāi)發(fā)人工智能系統(tǒng)或通用人工智能模型,或已開(kāi)發(fā)人工智能系統(tǒng)或通用人工智能模型,并將其投放市場(chǎng)或以自己的名義或商標(biāo)提供服務(wù)的自然人或法人,公共機(jī)關(guān)、機(jī)構(gòu)或其他團(tuán)體,無(wú)論有償還是無(wú)償。
部署者(deployer):在其授權(quán)下使用人工智能系統(tǒng)的任何自然人或法人、公共機(jī)關(guān)、機(jī)構(gòu)或其他團(tuán)體,
但在個(gè)人非職業(yè)活動(dòng)中使用人工智能系統(tǒng)的情況除外。第一章全球人工智能發(fā)展與監(jiān)管體系
04可信人工智能治理
白皮書(shū)第二章人工智能的可信原則02為了確保人工智能技術(shù)的健康發(fā)展,推動(dòng)其在促進(jìn)科技創(chuàng)新和經(jīng)濟(jì)發(fā)展中發(fā)揮積極作用,我們必須著眼于構(gòu)建可信人工智能體系。可信人工智能的核心在于,其設(shè)計(jì)、開(kāi)發(fā)
和部署過(guò)程中必須嚴(yán)格遵循一系列基本原則,包括但不限于安全性、公平性、可解釋性和
隱私保護(hù)。這些原則不僅關(guān)乎人工智能技術(shù)的內(nèi)在可信度,更關(guān)系到其與人類(lèi)社會(huì)的和諧共融。安永認(rèn)為相關(guān)利益方應(yīng)積極理解AI的核心原則,建立可信人工智能體系,構(gòu)建AI治理與風(fēng)險(xiǎn)管理架構(gòu),并隨著監(jiān)管態(tài)勢(shì)、科技發(fā)展、社會(huì)生產(chǎn)力等變化動(dòng)態(tài)調(diào)整,以實(shí)現(xiàn)可持續(xù)發(fā)展進(jìn)步。PART《G20貿(mào)易和數(shù)字經(jīng)濟(jì)部長(zhǎng)聲明》中提出的人工智能原則是在2019年由G20成員共同商定的一
套國(guó)際性指導(dǎo)原則,旨在確保人工智能的發(fā)展方向能夠符合人類(lèi)社會(huì)的共同利益,人工智能應(yīng)用是可
持續(xù)、負(fù)責(zé)任和以人為本的。所有利益相關(guān)者,根
據(jù)各自的角色,秉持以下原則對(duì)可信人工智能進(jìn)行
負(fù)責(zé)任管理。1
.包容性增長(zhǎng)、可持續(xù)發(fā)展及福祉應(yīng)積極負(fù)責(zé)任地管理值得信賴(lài)的
AI,以追求人類(lèi)和地球的有益成果,從而振興包容性增長(zhǎng),可持
續(xù)發(fā)展和福祉。增強(qiáng)人的能力和創(chuàng)造力,促進(jìn)和包
容代表性不足的人,減少經(jīng)濟(jì),社會(huì),性別和其他
不平等,保護(hù)自然環(huán)境。2.
尊重法治、人權(quán)以及民主價(jià)值觀(guān),包括公平
和隱私應(yīng)尊重法治、人權(quán)、民主和在整個(gè)AI
系統(tǒng)生命
周期中以人為本的價(jià)值觀(guān)。這些包括不歧視和平等、
自由、尊嚴(yán)、個(gè)人自主,
隱私和數(shù)據(jù)保護(hù)、多樣性、
公平性、社會(huì)正義以及國(guó)際公認(rèn)的勞工權(quán)利。為此
目的,還應(yīng)實(shí)施適合于環(huán)境和符合技術(shù)水平的機(jī)制和保障措施。3
.透明度和可解釋性應(yīng)致力于負(fù)責(zé)任地披露
AI系統(tǒng)信息。為此,應(yīng)
提供適合于客觀(guān)實(shí)際并符合技術(shù)發(fā)展水平的有意義的信息:促進(jìn)對(duì)AI系統(tǒng)的普遍理解;讓利益相關(guān)者
了解與
AI系統(tǒng)的互動(dòng)情況;
使受
AI系統(tǒng)影響的人能夠理解系統(tǒng)的結(jié)果;
使受到
AI系統(tǒng)不利影響的人能
夠根據(jù)相關(guān)因素的簡(jiǎn)單易懂的信息,作為預(yù)測(cè)、建議或決策基礎(chǔ)的邏輯來(lái)源,
并可質(zhì)疑
AI系統(tǒng)產(chǎn)生不
利影響。4
.穩(wěn)健性、安全性和保障性AI系統(tǒng)應(yīng)在整個(gè)生命周期內(nèi)保持穩(wěn)健、安全和
有保障,從而在正常使用、可預(yù)見(jiàn)的使用或誤用,
或其他不利條件下,能夠正常運(yùn)作,避免造成不合
理的安全風(fēng)險(xiǎn)。還需確保如果人工智能系統(tǒng)有風(fēng)險(xiǎn)
導(dǎo)致不當(dāng)傷害或表現(xiàn)出不良行為的,可以被覆蓋、
修復(fù)或根據(jù)需要安全退役。在技術(shù)上可行的情況下,
還應(yīng)加強(qiáng)信息廉潔,同時(shí)確保尊重言論自由。5.
問(wèn)責(zé)制應(yīng)對(duì)人工智能系統(tǒng)的正常運(yùn)作負(fù)責(zé),并對(duì)人工2.1G20人工智能可信原則第二章人工智能的可信原則
05可信人工智能治理
白皮書(shū)2019年4月8
日,
歐盟人工智能高級(jí)別專(zhuān)家組發(fā)布《人工智能倫理指南》(Ethics
Guidelinesfor
Artificial
Intelligence),提出了人工智能系統(tǒng)應(yīng)滿(mǎn)足
的七項(xiàng)關(guān)鍵要求,才能被視為可信賴(lài)。具體要求如下:(一
)人類(lèi)的能動(dòng)性與監(jiān)督:人類(lèi)應(yīng)對(duì)
AI系統(tǒng)
擁有權(quán)力并能夠監(jiān)督人工智能所做的決定和行為。(二
)技術(shù)的穩(wěn)健性與安全性:AI系統(tǒng)應(yīng)是穩(wěn)健
的、可復(fù)原的、安全的,出現(xiàn)問(wèn)題時(shí)可最大限度地
減少和防止意外傷害。(三
)隱私與數(shù)據(jù)治理:AI系統(tǒng)需充分尊重隱私
和數(shù)據(jù)保護(hù),同時(shí)還應(yīng)有適當(dāng)?shù)臄?shù)據(jù)質(zhì)量、完整性、
合法訪(fǎng)問(wèn)等相關(guān)數(shù)據(jù)治理機(jī)制。2.3安永觀(guān)點(diǎn):可信人工智能原則經(jīng)濟(jì)合作與發(fā)展組織(OECD)、二十國(guó)集團(tuán)
(G20)以及歐盟提出的人工智能原則,提倡人工智
能應(yīng)具有創(chuàng)新性、值得信賴(lài)、尊重人權(quán)和民主價(jià)值觀(guān),
為人工智能制定了切實(shí)可行、靈活多變、經(jīng)得起時(shí)
間考驗(yàn)的標(biāo)準(zhǔn)。體現(xiàn)了國(guó)際社會(huì)對(duì)人工智能技術(shù)發(fā)
展的共同關(guān)注和期望,也為全球范圍內(nèi)人工智能的
研究、開(kāi)發(fā)和應(yīng)用提供了一套價(jià)值觀(guān)和行為準(zhǔn)則。
為此,安永在全球化的商業(yè)服務(wù)實(shí)踐中,將AI技術(shù)(四
)透明度:AI的數(shù)據(jù)、系統(tǒng)和商業(yè)模式應(yīng)該是透明的;AI系統(tǒng)的相關(guān)決策、系統(tǒng)功能以及局限
性應(yīng)對(duì)相關(guān)利益方進(jìn)行解釋和告知。(五
)多樣性、非歧視與公平性:AI系統(tǒng)必須避
免歧視性以及不公平的偏見(jiàn);同時(shí),AI系統(tǒng)應(yīng)保持
多樣性,應(yīng)該向所有人開(kāi)放,并讓相關(guān)利益方參與
其中。(六
)社會(huì)和環(huán)境福祉:AI系統(tǒng)應(yīng)造福全人類(lèi),
并考慮其他生物生存的社會(huì)影響,確保是可持續(xù)和
環(huán)保的。(七)問(wèn)責(zé)制:
建立問(wèn)責(zé)機(jī)制,確保AI系統(tǒng)及其成果是可問(wèn)責(zé)的,能夠?qū)λ惴ā?shù)據(jù)和設(shè)計(jì)流程
進(jìn)行審計(jì),還應(yīng)確保提供適當(dāng)和便捷的補(bǔ)救措施。與安永服務(wù)能力進(jìn)行深度結(jié)合,不僅增強(qiáng)了客戶(hù)服
務(wù)的轉(zhuǎn)型升級(jí),
也為可信
AI的未來(lái)發(fā)展建立了社會(huì)
信心。安永強(qiáng)調(diào)可信、以人為本的方法實(shí)現(xiàn)
AI
的潛力,
專(zhuān)注于為所有人創(chuàng)造價(jià)值,以實(shí)現(xiàn)可持續(xù)增長(zhǎng)并為更好的商業(yè)世界賦予人和社會(huì)力量。安永根據(jù)國(guó)際
化的人工智能商業(yè)實(shí)踐經(jīng)驗(yàn)和對(duì)全球人工智能法規(guī)
政策的洞察,認(rèn)為具有問(wèn)責(zé)性、合規(guī)性、可解釋性、
公平性等原則的人工智能才是可信人工智能。包容性增長(zhǎng)、可持續(xù)發(fā)展
和福祉應(yīng)積極負(fù)責(zé)任地管理值得信賴(lài)的,以人類(lèi)和地球追求有益的成果,從而振興包容性增長(zhǎng)、可持續(xù)發(fā)展和福祉可持續(xù)性公平和偏見(jiàn)增強(qiáng)人類(lèi)的能力和增強(qiáng)創(chuàng)造力促進(jìn)和保護(hù)代表性不足的人減少經(jīng)濟(jì)、社會(huì)、性別和其他不平等現(xiàn)象保護(hù)自然環(huán)境智能系統(tǒng)的正常運(yùn)作負(fù)責(zé);同時(shí)還應(yīng)確保在人工智能系統(tǒng)生命周期中做出的數(shù)據(jù)集、流程和決策是可追溯的;人工智能系統(tǒng)的各方參與者有責(zé)任根據(jù)其角色,以適合于客觀(guān)實(shí)際并符合技術(shù)發(fā)展水平的方式,確保AI系統(tǒng)的
正常運(yùn)行,將風(fēng)險(xiǎn)管理方法應(yīng)用于人工智能系統(tǒng)的全生命周期。2.2歐盟可信人工智能原則OECD&G20:AI原則基本措施安永:AI原則第二章人工智能的可信原則
06可信人工智能治理
白皮書(shū)OECD&G20:AI原則基本措施安永:AI原則以人為本的價(jià)值觀(guān)和公平人應(yīng)尊重法治、人權(quán)、民主和在整個(gè)
AI系統(tǒng)生命周期中以人為本
的價(jià)值觀(guān)。這些包括不歧視和平等、自由、尊嚴(yán)、個(gè)人自主,
隱私
和數(shù)據(jù)保護(hù)、多樣性、公平性、社會(huì)正義以及國(guó)際公認(rèn)的勞工權(quán)利。可持續(xù)性公平和偏見(jiàn)合規(guī)為此目的,還應(yīng)實(shí)施適合于環(huán)境和符合技術(shù)水平的機(jī)制和保障措施。透明度和可解釋性應(yīng)致力于負(fù)責(zé)任地披露
AI系統(tǒng)信息。為此,應(yīng)提供適合于客觀(guān)實(shí)
際并符合技術(shù)發(fā)展水平的有意義的信息:透明度促進(jìn)對(duì)人工智能系統(tǒng)的全面理解讓利益相關(guān)者了解與
AI系統(tǒng)的互動(dòng)情況使受
AI系統(tǒng)影響的人能夠理解系統(tǒng)的結(jié)果可解釋性使受到AI
系統(tǒng)不利影響的人能夠根據(jù)相關(guān)因素的簡(jiǎn)單易懂的信息,
作為預(yù)測(cè)、建議或決策基礎(chǔ)的邏輯來(lái)源,并可質(zhì)疑
AI系統(tǒng)產(chǎn)生不
利影響。穩(wěn)健性、安全性和保障性AI系統(tǒng)應(yīng)在整個(gè)生命周期內(nèi)保持穩(wěn)健、安全和有保障,從而在正
常使用、可預(yù)見(jiàn)的使用或誤用,或其他不利條件下,能夠正常運(yùn)作,
避免造成不合理的安全風(fēng)險(xiǎn)。可靠性安全還需確保如果人工智能系統(tǒng)有風(fēng)險(xiǎn)導(dǎo)致不當(dāng)傷害或表現(xiàn)出不良行
為的,可以被覆蓋、修復(fù)或根據(jù)需要安全退役。透明度在技術(shù)上可行的情況下,還應(yīng)加強(qiáng)信息廉潔,同時(shí)確保尊重言論自
由。可靠性問(wèn)責(zé)制AI系統(tǒng)的各方參與者有責(zé)任根據(jù)其角色,以適合于客觀(guān)實(shí)際并符
合技術(shù)發(fā)展水平的方式,確保
AI系統(tǒng)的正常運(yùn)行,將風(fēng)險(xiǎn)管理方
法應(yīng)用于人工智能系統(tǒng)的全生命周期。問(wèn)責(zé)制安永在全球化的商業(yè)服務(wù)實(shí)踐中,將
AI技術(shù)與安永服務(wù)能力進(jìn)行深度結(jié)合,不僅增強(qiáng)了客戶(hù)服務(wù)的轉(zhuǎn)型升級(jí),也為可信
AI
的未來(lái)發(fā)展建立了社會(huì)信心,創(chuàng)造指數(shù)級(jí)的價(jià)值。安永強(qiáng)調(diào)可信、以人為本的方法實(shí)現(xiàn)
AI
的潛力,
專(zhuān)注于為所有人創(chuàng)造價(jià)值,已實(shí)現(xiàn)可持續(xù)增長(zhǎng)并為更好地商業(yè)世界賦予人和社會(huì)力量。圖3安永所倡導(dǎo)的
AI原則第二章人工智能的可信原則
07可信人工智能治理
白皮書(shū)疑影響了用戶(hù)體驗(yàn)。中國(guó)青年報(bào)社社會(huì)調(diào)查中心對(duì)1501名受訪(fǎng)者進(jìn)行的調(diào)查表明,超過(guò)62%的受訪(fǎng)者感受到“大數(shù)據(jù)+算法”精準(zhǔn)推送帶來(lái)的“信息繭房”2。算法黑箱和信息繭房問(wèn)題,往往根植于大型機(jī)器學(xué)習(xí)模型的內(nèi)在特性。與基礎(chǔ)算法相比,人工智能模型采用的神經(jīng)網(wǎng)絡(luò)算法的復(fù)雜性源于其擁有龐大的參數(shù)網(wǎng)絡(luò)和處理高維數(shù)據(jù)的能力,且決策過(guò)程無(wú)法僅通過(guò)底層算法預(yù)測(cè),而是基于訓(xùn)練數(shù)據(jù)深度學(xué)習(xí)到的復(fù)雜模式和規(guī)律。以個(gè)性化推薦算法為例,其依據(jù)用戶(hù)行為數(shù)據(jù)進(jìn)行內(nèi)容定制,以此增強(qiáng)用戶(hù)體驗(yàn)和平臺(tái)互動(dòng)性。然而,這種算法可能導(dǎo)致用戶(hù)行為(如點(diǎn)擊、點(diǎn)贊和評(píng)論)進(jìn)一步強(qiáng)化其內(nèi)部推薦邏輯,形成了
一個(gè)自我加強(qiáng)的反饋循環(huán)。用戶(hù)難以直觀(guān)地查看或修改模型的內(nèi)部機(jī)制,也難以理解模型如何完成文本生成、
推斷、分類(lèi)等任務(wù)。此外,企業(yè)在處理數(shù)據(jù)時(shí),出于隱私保護(hù)和商業(yè)機(jī)密的考慮,往往不會(huì)完全公開(kāi)其數(shù)據(jù)處理流程。同時(shí),
現(xiàn)行的知識(shí)產(chǎn)權(quán)法律在保護(hù)創(chuàng)新成果的同時(shí),也可能間接限制了算法透明度的提升。第三章可信人工智能的關(guān)鍵問(wèn)題03在各國(guó)人工智能法律法規(guī)的框架之下,企業(yè)對(duì)人工智能技術(shù)的應(yīng)用依然面臨著諸多
風(fēng)險(xiǎn)與問(wèn)題。一方面,數(shù)據(jù)隱私問(wèn)題令人擔(dān)憂(yōu),大量的個(gè)人數(shù)據(jù)被收集用于訓(xùn)練算法,然
而這些數(shù)據(jù)的安全性和合規(guī)使用卻難以得到完全保障。另一方面,算法偏見(jiàn)也不容忽視。
由于訓(xùn)練數(shù)據(jù)的不全面或偏差,算法可能會(huì)對(duì)某些群體產(chǎn)生不公平的判斷和決策。人工智
能技術(shù)固有的內(nèi)生安全問(wèn)題可能被惡意利用,造成難以估量的危害。這些風(fēng)險(xiǎn)對(duì)企業(yè)如何
更合規(guī)應(yīng)用人工智能技術(shù)提出了新的挑戰(zhàn)。PART3.1算法黑箱與信息繭房問(wèn)題2024年,某大型網(wǎng)約車(chē)服務(wù)平臺(tái)推出“車(chē)費(fèi)保鏢”服務(wù)旨在通過(guò)實(shí)時(shí)監(jiān)控車(chē)費(fèi)波動(dòng),為消費(fèi)者提供一個(gè)公
平且透明的出行體驗(yàn),并在檢測(cè)到異常收費(fèi)時(shí)提供先行賠付。然而,上海市消費(fèi)者權(quán)益保護(hù)委員會(huì)對(duì)該服務(wù)的
算法透明度提出批評(píng),指出由于缺乏明確的標(biāo)準(zhǔn)來(lái)定義“合理”的車(chē)費(fèi)變動(dòng),消費(fèi)者難以評(píng)估服務(wù)的實(shí)際保障水平,
從而使“車(chē)費(fèi)保鏢”服務(wù)在實(shí)際運(yùn)作中存在透明度不足的問(wèn)題。算法黑箱與信息繭房問(wèn)題因其直接觸及人們的日常使用體驗(yàn)和信息獲取路徑而尤為凸顯。算法的不透明性常常讓用戶(hù)在使用搜索引擎、社交媒體和在線(xiàn)購(gòu)物平臺(tái)時(shí)感到困惑,因?yàn)樗麄儫o(wú)法洞悉背后的推薦邏輯,這無(wú)第三章可信人工智能的關(guān)鍵問(wèn)題
08可信人工智能治理
白皮書(shū)3.2算法偏見(jiàn)問(wèn)題算法偏見(jiàn)是人工智能領(lǐng)域內(nèi)一個(gè)日益顯著的問(wèn)題,由于訓(xùn)練數(shù)據(jù)的不均衡或算法設(shè)計(jì)的不完善,這導(dǎo)致系統(tǒng)輸出結(jié)果可能帶有不公平性。這種偏見(jiàn)可能在招聘、司法、金融等多個(gè)關(guān)鍵領(lǐng)域顯現(xiàn),對(duì)特定群體造成系統(tǒng)
性的不公正影響。2018年某知名跨國(guó)電商企業(yè)的招聘算法被發(fā)現(xiàn)在篩選簡(jiǎn)歷時(shí),對(duì)含有與“女性”相關(guān)詞匯的簡(jiǎn)歷評(píng)分偏低,這一性別偏見(jiàn)問(wèn)題最終導(dǎo)致了該算法的關(guān)閉。無(wú)獨(dú)有偶,多家知名企業(yè)廣泛采用的AI面試工具,被指出在解讀面試者表情時(shí)可能存在誤判,從而導(dǎo)致對(duì)面試者性格特征的不準(zhǔn)確推斷。算法偏見(jiàn)的形成原因可以歸納為以下三個(gè)方面:據(jù)保護(hù)法規(guī)要求。這不僅會(huì)損害用戶(hù)的利益,還可能對(duì)人工智能行業(yè)的健康發(fā)展造成負(fù)面影響。底層數(shù)據(jù)源的安全問(wèn)題是一個(gè)多維度的挑戰(zhàn),
它不僅包括數(shù)據(jù)源獲取的合法性,還涵蓋了數(shù)據(jù)語(yǔ)
料庫(kù)的管理、數(shù)據(jù)投毒攻擊、數(shù)據(jù)源的依賴(lài)性和時(shí)
效性等。龐大的數(shù)據(jù)語(yǔ)料庫(kù)可能潛藏著仇恨言論、
歧視性言論、虛假信息等有害內(nèi)容,這些內(nèi)容若被
惡意注入,不僅會(huì)誤導(dǎo)人工智能的學(xué)習(xí)過(guò)程,損害
模型的準(zhǔn)確性,還可能對(duì)用戶(hù)的利益造成實(shí)質(zhì)性的
威脅。同樣,確保數(shù)據(jù)源的多樣性和時(shí)效性至關(guān)重要,
如果算法過(guò)度依賴(lài)單一或有限的數(shù)據(jù)源,其魯棒性
將受到削弱,而依賴(lài)過(guò)時(shí)的數(shù)據(jù)源,使用不再反映
現(xiàn)實(shí)的陳舊數(shù)據(jù)也會(huì)降低人工智能決策的準(zhǔn)確性和
可靠性。3.3.1底層數(shù)據(jù)源2017年,英國(guó)信息委員會(huì)(ICO)對(duì)倫敦某醫(yī)
院基金會(huì)與某科技公司旗下人工智能研究公司的智
能醫(yī)療合作項(xiàng)目進(jìn)行了調(diào)查,調(diào)查結(jié)果顯示,在開(kāi)
發(fā)移動(dòng)醫(yī)療應(yīng)用的過(guò)程中,該人工智能研究公司未
能充分向患者披露其個(gè)人醫(yī)療數(shù)據(jù)的使用目的和范
圍,使用超過(guò)160萬(wàn)患者的醫(yī)療記錄作為訓(xùn)練和測(cè)試的數(shù)據(jù)源3
。數(shù)據(jù)源獲取的合法性問(wèn)題可能觸發(fā)一
系列復(fù)雜問(wèn)題,包括知識(shí)產(chǎn)權(quán)侵權(quán)、公民個(gè)人信息
保護(hù)不足等。數(shù)據(jù)作為用戶(hù)與模型之間的溝通橋梁,
其質(zhì)量和來(lái)源直接影響到人工智能模型的性能表現(xiàn)。
如果數(shù)據(jù)來(lái)源不明確或獲取方式存在法律問(wèn)題,那
么在使用這些數(shù)據(jù)的過(guò)程中,就難以滿(mǎn)足現(xiàn)行的數(shù) 訓(xùn)練數(shù)據(jù)的不均衡性:如果訓(xùn)練數(shù)據(jù)在收集時(shí)存在歷史偏見(jiàn)或代表性不足,算法可能會(huì)繼承并放大這些偏見(jiàn),從而產(chǎn)生歧視性結(jié)果。 特征選擇的偏差:在模型訓(xùn)練過(guò)程中,選擇哪些特征作為輸入變量對(duì)結(jié)果具有重大影響,不當(dāng)?shù)奶卣鬟x
擇可能無(wú)意中引入歧視性偏見(jiàn)。 算法設(shè)計(jì)的不完善:如果算法設(shè)計(jì)過(guò)程中未能充分考慮公平性原則,或設(shè)計(jì)者本身存在偏見(jiàn),可能導(dǎo)致
算法在處理數(shù)據(jù)時(shí)無(wú)法保持公正和客觀(guān)。3.3數(shù)據(jù)安全問(wèn)題數(shù)據(jù)安全是構(gòu)建可信人工智能的關(guān)鍵,它不僅保護(hù)用戶(hù)隱私,確保企業(yè)遵守法律法規(guī),還構(gòu)建了用戶(hù)對(duì)系統(tǒng)的信任。數(shù)據(jù)安全通過(guò)防止算法偏見(jiàn)、保障決策公正性、維護(hù)數(shù)據(jù)的完整性和準(zhǔn)確性,支撐了人工智能的可
信應(yīng)用,并促進(jìn)了技術(shù)與社會(huì)的和諧發(fā)展。公眾對(duì)人工智能的信任建立在數(shù)據(jù)安全的基礎(chǔ)之上,
一旦發(fā)生安全事件,不僅用戶(hù)隱私受損,企業(yè)的聲譽(yù)和信任度也會(huì)受到嚴(yán)重影響。第三章可信人工智能的關(guān)鍵問(wèn)題
09可信人工智能治理
白皮書(shū)3.3.2數(shù)據(jù)泄露2023年4月,全球著名的商業(yè)集團(tuán)因允許其半導(dǎo)體部門(mén)工程師使用ChatGPT解決源代碼問(wèn)題,不慎泄露包括半導(dǎo)體設(shè)備測(cè)量資料和產(chǎn)品良率等在內(nèi)
的機(jī)密數(shù)據(jù)。根據(jù)美國(guó)數(shù)據(jù)安全公司Cyberhaven發(fā)布的報(bào)告4,
到2024年3月,
員工向人工智能模型輸入的公司數(shù)據(jù)中,敏感數(shù)據(jù)的比例從
10.7%激增至27.4%。盡管企業(yè)有責(zé)任嚴(yán)密保護(hù)機(jī)密信息,但
員工可能因缺乏安全意識(shí)在無(wú)意中將機(jī)密數(shù)據(jù)以提
問(wèn)的形式輸入人工智能模型中,致使企業(yè)商業(yè)機(jī)密
面臨持續(xù)泄露風(fēng)險(xiǎn)。人工智能模型的反向工程是一種高級(jí)的數(shù)據(jù)泄
露風(fēng)險(xiǎn),攻擊者通過(guò)精心設(shè)計(jì)的查詢(xún),分析人工智能模型的輸出結(jié)果,從而推斷出用于訓(xùn)練該模型的
敏感數(shù)據(jù)。由于人工智能模型可能記住了訓(xùn)練過(guò)程
中的特定模式和細(xì)節(jié),攻擊者利用這些信息,可以
對(duì)模型進(jìn)行“反向?qū)W習(xí)”,恢復(fù)或重建原始數(shù)據(jù)集的
一部分,對(duì)數(shù)據(jù)隱私和安全構(gòu)成嚴(yán)重威脅。3.3.3出海涉及相關(guān)數(shù)據(jù)出境規(guī)制在全球化大潮中,人工智能系統(tǒng)處理的數(shù)據(jù)頻
繁跨越國(guó)界,帶來(lái)了跨境數(shù)據(jù)傳輸與處理的挑戰(zhàn)。數(shù)據(jù)主權(quán)作為國(guó)家對(duì)數(shù)據(jù)控制權(quán)的體現(xiàn),涵蓋了數(shù)
據(jù)的收集、存儲(chǔ)、處理和傳輸?shù)壬芷诟鳝h(huán)節(jié)。個(gè)人信息出境要求,作為數(shù)據(jù)主權(quán)的重要組成部分,
規(guī)定了個(gè)人信息在跨國(guó)傳輸時(shí)必須遵循的規(guī)則。為了保護(hù)本國(guó)數(shù)據(jù)安全、維護(hù)國(guó)家利益和公民隱私,
各國(guó)紛紛制定并實(shí)施了相應(yīng)的法律法規(guī)。我國(guó)通過(guò)《中華人民共和國(guó)網(wǎng)絡(luò)安全法》《中
華人民共和國(guó)數(shù)據(jù)安全法》和《中華人民共和國(guó)個(gè)
人信息保護(hù)法》等法律法規(guī),
確立了個(gè)人信息出境
的合規(guī)要求。這些法規(guī)要求企業(yè)在處理數(shù)據(jù)出境事
宜時(shí),必須開(kāi)展安全評(píng)估,確保數(shù)據(jù)接收方能夠提
供充分的數(shù)據(jù)保護(hù)措施,并且必須獲得數(shù)據(jù)主體的
明確同意。遵循這些法規(guī)不僅是企業(yè)履行法律義務(wù)
的需要,也是維護(hù)企業(yè)聲譽(yù)、保持客戶(hù)信任的關(guān)鍵。3.4
內(nèi)生安全問(wèn)題人工智能技術(shù)的內(nèi)生安全問(wèn)題根植于系統(tǒng)內(nèi)部,從基礎(chǔ)設(shè)施的脆弱性、數(shù)據(jù)處理的漏洞,到開(kāi)發(fā)框架的缺陷、模型訓(xùn)練和部署的不規(guī)范,以及應(yīng)用層和接口層的攻擊風(fēng)險(xiǎn)。這些隱患不僅威脅到系統(tǒng)的安全性和用戶(hù)隱私,
還可能導(dǎo)致合規(guī)性問(wèn)題和聲譽(yù)損害。安全層的不足和監(jiān)控維護(hù)的滯后可能使系統(tǒng)對(duì)新威脅的防御能力下降,而
用戶(hù)交互層的安全問(wèn)題將直接影響用戶(hù)信任。若不妥善解決,
這些風(fēng)險(xiǎn)可能引發(fā)錯(cuò)誤決策、信任動(dòng)搖、數(shù)據(jù)泄露、
安全性下降,以及技術(shù)更新滯后,對(duì)企業(yè)運(yùn)營(yíng)和用戶(hù)權(quán)益造成嚴(yán)重影響。3.4.1人工智能基礎(chǔ)設(shè)施安全風(fēng)險(xiǎn)人工智能基礎(chǔ)設(shè)施的安全風(fēng)險(xiǎn)包括軟件漏洞、
依賴(lài)性風(fēng)險(xiǎn)、技術(shù)過(guò)時(shí)和網(wǎng)絡(luò)攻擊,這些問(wèn)題共同
威脅著系統(tǒng)的穩(wěn)定性和可靠性。軟件層面,操作系統(tǒng)、數(shù)據(jù)庫(kù)和應(yīng)用程序中的
未修復(fù)漏洞可能使系統(tǒng)面臨未授權(quán)訪(fǎng)問(wèn)和破壞的風(fēng)
險(xiǎn),而維護(hù)更新不足會(huì)加劇這一問(wèn)題。對(duì)特定軟件
庫(kù)或框架的過(guò)度依賴(lài)可能引入依賴(lài)性風(fēng)險(xiǎn),
一旦這
些依賴(lài)項(xiàng)存在問(wèn)題,整個(gè)系統(tǒng)將受影響。使用過(guò)時(shí)
的技術(shù)因缺乏最新安全功能易于遭受攻擊。此外,網(wǎng)絡(luò)攻擊如DDoS、端口掃描和未授權(quán)訪(fǎng)問(wèn)會(huì)直接影響系統(tǒng)的可用性和穩(wěn)定性。3.4.2數(shù)據(jù)安全風(fēng)險(xiǎn)人工智能系統(tǒng)的數(shù)據(jù)泄露風(fēng)險(xiǎn)遍布數(shù)據(jù)處理各環(huán)節(jié),尤其在安全防護(hù)不足時(shí)更為嚴(yán)峻。原因多樣:
數(shù)據(jù)加密不足易遭截獲;軟件漏洞可能被攻擊者利用;不安全的系統(tǒng)配置如開(kāi)放端口和簡(jiǎn)單密碼易于
被攻破;內(nèi)部人員的疏忽或故意行為可能引起數(shù)據(jù)
泄露;員工和用戶(hù)的數(shù)據(jù)保護(hù)意識(shí)不足,易成為網(wǎng)
絡(luò)攻擊目標(biāo);數(shù)據(jù)訪(fǎng)問(wèn)控制寬松,敏感信息面臨未第三章可信人工智能的關(guān)鍵問(wèn)題
10可信人工智能治理
白皮書(shū)在人工智能領(lǐng)域,應(yīng)用服務(wù)的安全風(fēng)險(xiǎn)是多方面的,涉及復(fù)雜的技術(shù)和倫理問(wèn)題。用戶(hù)與人工智能服務(wù)的互動(dòng)可能伴隨著隱私泄露的風(fēng)險(xiǎn),用戶(hù)可
能無(wú)意中分享了敏感信息,或者人工智能系統(tǒng)可能
在缺乏告知同意的情況下收集數(shù)據(jù),可能違反數(shù)據(jù)
保護(hù)法規(guī)。此外,用戶(hù)反饋對(duì)人工智能系統(tǒng)既是改
進(jìn)服務(wù)的寶貴資源,也可能被惡意用戶(hù)可能利用從
而進(jìn)行數(shù)據(jù)操縱或探測(cè)系統(tǒng)缺陷。而用戶(hù)提問(wèn)中可
能包含的不當(dāng)言論或虛假信息,不僅違背平臺(tái)規(guī)定,
也可能對(duì)社會(huì)秩序和個(gè)人權(quán)益造成損害。在內(nèi)容生成與決策方面,人工智能模型可能產(chǎn)
生帶有偏見(jiàn)或不準(zhǔn)確的信息。同時(shí),人工智能技術(shù)
的濫用,如深度偽造(Deepfake)技術(shù)或自動(dòng)化網(wǎng)
絡(luò)攻擊,對(duì)個(gè)人名譽(yù)和網(wǎng)絡(luò)安全構(gòu)成了嚴(yán)重威脅。人工智能模型的決策安全在醫(yī)療、金融、交通等領(lǐng)
域至關(guān)重要,這些領(lǐng)域的人工智能技術(shù)應(yīng)用一旦做
出錯(cuò)誤決策,可能會(huì)引發(fā)包括經(jīng)濟(jì)損失、健康風(fēng)險(xiǎn)
甚至生命安全在內(nèi)的嚴(yán)重后果。授權(quán)訪(fǎng)問(wèn)風(fēng)險(xiǎn);日志和監(jiān)控機(jī)制不足,難以及時(shí)檢測(cè)泄露。這些因素交織,形成數(shù)據(jù)泄露的復(fù)雜風(fēng)險(xiǎn)
環(huán)境。3.4.3模型安全風(fēng)險(xiǎn)在人工智能領(lǐng)域,模型安全風(fēng)險(xiǎn)是核心問(wèn)題,
包括對(duì)抗性攻擊、數(shù)據(jù)投毒、模型竊取、算法后門(mén)
和模型過(guò)擬合等方面。對(duì)抗性攻擊利用構(gòu)造輸入誤導(dǎo)模型,數(shù)據(jù)投毒
通過(guò)篡改訓(xùn)練數(shù)據(jù)扭曲學(xué)習(xí)過(guò)程,模型竊取嘗試逆
向工程獲取內(nèi)部參數(shù),算法后門(mén)植入隱蔽觸發(fā)條件,
而過(guò)擬合導(dǎo)致模型泛化能力差。這些問(wèn)題往往源于
數(shù)據(jù)管理不足、安全措施缺失、技術(shù)缺陷、計(jì)算資
源限制、透明度和監(jiān)管不足、復(fù)雜性增加、驗(yàn)證和
測(cè)試不完善以及內(nèi)部威脅等復(fù)合因素。隨著攻擊技
術(shù)的發(fā)展,模型安全問(wèn)題變得更加隱蔽和難以防范,
要求在數(shù)據(jù)管理、模型設(shè)計(jì)、訓(xùn)練和驗(yàn)證各環(huán)節(jié)加
強(qiáng)安全防護(hù)。3.4.4應(yīng)用服務(wù)安全風(fēng)險(xiǎn)
自然人的知情權(quán)、選擇權(quán)、公平交易權(quán)以及未成年人和老年人群體的合法權(quán)益受損,從而導(dǎo)致大數(shù)據(jù)殺熟、沉迷消費(fèi)、服務(wù)歧視等倫理問(wèn)題;
特定行業(yè)和企業(yè)在利用人工智能技術(shù)時(shí)缺乏科技倫理審查所引發(fā)產(chǎn)品缺陷、侵犯用戶(hù)合法權(quán)益、使用人
工智能技術(shù)進(jìn)行違法犯罪活動(dòng)等法律風(fēng)險(xiǎn);
人工智能技術(shù)的倫理問(wèn)題也可能引發(fā)社會(huì)群體性失業(yè)、弱勢(shì)群體不公平待遇進(jìn)一步加劇等社會(huì)性的倫理問(wèn)題。企業(yè)若違反科技倫理不僅影響企業(yè)聲譽(yù),更會(huì)面臨行政責(zé)任乃至刑事責(zé)任。2023
年
12
月
1日正式施行的《科3.5科技倫理問(wèn)題當(dāng)前以人工智能等核心科技的新一輪科技革命和產(chǎn)業(yè)變革加速演進(jìn),在生命科學(xué)、醫(yī)學(xué)、人工智能等領(lǐng)域的科技活動(dòng)的倫理挑戰(zhàn)日益增多,AI深度生成、基因編輯、自動(dòng)駕駛等人工智能技術(shù)正面臨科技倫理的拷問(wèn)與審視。人工智能大模型的訓(xùn)練、推理、應(yīng)用等活動(dòng)依賴(lài)大量的數(shù)據(jù)來(lái)訓(xùn)練,其訓(xùn)練決策的過(guò)程復(fù)雜且不透明,
可能會(huì)引發(fā)如下科技倫理問(wèn)題:技倫理審查辦法(試行)》為規(guī)范科學(xué)研究、技術(shù)開(kāi)發(fā)等科技活動(dòng),
強(qiáng)化科技倫理風(fēng)險(xiǎn)防控,提供了法律依據(jù)。第三章可信人工智能的關(guān)鍵問(wèn)題
11可信人工智能治理
白皮書(shū)第四章企業(yè)級(jí)
AI的合規(guī)要求04在全球人工智能監(jiān)管日益趨強(qiáng)的背景下,為更好應(yīng)對(duì)算法黑箱、算法偏見(jiàn)和外部攻擊等紛繁復(fù)雜的內(nèi)憂(yōu)外患,相關(guān)企業(yè)也面臨著從準(zhǔn)入資質(zhì)、算法合規(guī)義務(wù)到生成內(nèi)容合規(guī)
義務(wù)的一系列要求,以確保企業(yè)人工智能相關(guān)的發(fā)展和應(yīng)用合法合規(guī)。PART4.1.1互聯(lián)網(wǎng)信息服務(wù)提供者的基礎(chǔ)資質(zhì)通過(guò)互聯(lián)網(wǎng)向上網(wǎng)用戶(hù)提供信息的服務(wù)提供者
應(yīng)當(dāng)首先具備互聯(lián)網(wǎng)信息服務(wù)的基礎(chǔ)資質(zhì)。常見(jiàn)的
基礎(chǔ)資質(zhì)包括互聯(lián)網(wǎng)信息服務(wù)經(jīng)營(yíng)許可證(ICP許可
證)、增值電信業(yè)務(wù)經(jīng)營(yíng)許可證-在線(xiàn)數(shù)據(jù)處理與交
易處理業(yè)務(wù)(EDI許可證)和增值電信業(yè)務(wù)經(jīng)營(yíng)許可
證-移動(dòng)網(wǎng)信息服務(wù)業(yè)務(wù)(SP許可證)等。通過(guò)互聯(lián)網(wǎng)進(jìn)行電子公告服務(wù)和電子郵件、短
信服務(wù)等增值電信業(yè)務(wù)的經(jīng)營(yíng)性互聯(lián)網(wǎng)信息服務(wù)提
供者,應(yīng)當(dāng)向省、自治區(qū)、直轄市電信管理機(jī)構(gòu)或
者國(guó)務(wù)院信息產(chǎn)業(yè)主管部門(mén)申請(qǐng)辦理互聯(lián)網(wǎng)信息服
務(wù)增值電信業(yè)務(wù)經(jīng)營(yíng)許可證。從事在線(xiàn)數(shù)據(jù)處理和交易處理業(yè)務(wù)、移動(dòng)網(wǎng)信息服務(wù)業(yè)務(wù)等電信增值服
務(wù)的服務(wù)提供者還應(yīng)當(dāng)提交滿(mǎn)足申請(qǐng)條件的材料,
以在業(yè)務(wù)開(kāi)展前期獲得EDI許可證和SP許可證。4.1.2提供具體服務(wù)的特殊資質(zhì)互聯(lián)網(wǎng)新聞信息服務(wù)、網(wǎng)絡(luò)出版服務(wù)、網(wǎng)絡(luò)文
化活動(dòng)和網(wǎng)絡(luò)視聽(tīng)節(jié)目服務(wù)、生成式人工智能服務(wù)等具體服務(wù)的提供者,應(yīng)當(dāng)相應(yīng)取得互聯(lián)網(wǎng)新聞信息服務(wù)許可、網(wǎng)絡(luò)出版服務(wù)許可證、信息網(wǎng)絡(luò)傳播
視聽(tīng)節(jié)目許可證等特殊資質(zhì)。以互聯(lián)網(wǎng)新聞信息服務(wù)為例,“互聯(lián)網(wǎng)新聞信息
服務(wù)”包括互聯(lián)網(wǎng)新聞信息采編發(fā)布服務(wù)、轉(zhuǎn)載服務(wù)
和傳播平臺(tái)服務(wù)。申請(qǐng)主體需為通過(guò)互聯(lián)網(wǎng)站、應(yīng)
用程序、論壇、博客、微博客、公眾賬號(hào)、即時(shí)通
信工具、網(wǎng)絡(luò)直播等形式向社會(huì)公眾提供互聯(lián)網(wǎng)新
聞信息服務(wù)的主體,包括提供互聯(lián)網(wǎng)新聞信息服務(wù)
的算法推薦服務(wù)提供者、移動(dòng)互聯(lián)網(wǎng)應(yīng)用程序提供
者等主體。這些企業(yè)應(yīng)當(dāng)向特定主管部門(mén),
即省、
自治區(qū)、直轄市互聯(lián)網(wǎng)信息辦公室提出申請(qǐng)。同樣,
從事網(wǎng)絡(luò)出版服務(wù)、網(wǎng)絡(luò)文化活動(dòng)和網(wǎng)絡(luò)視聽(tīng)節(jié)目
服務(wù)的深度合成服務(wù)提供者和技術(shù)支持者取得網(wǎng)絡(luò)
出版服務(wù)、網(wǎng)絡(luò)文化活動(dòng)和網(wǎng)絡(luò)視聽(tīng)節(jié)目服務(wù)相關(guān)
許可;生成式人工智能服務(wù)提供者則應(yīng)當(dāng)取得生成
式人工智能服務(wù)相關(guān)行政許可。4.1資質(zhì)監(jiān)管要求人工智能相關(guān)企業(yè)的業(yè)務(wù)可能既包括信息服務(wù)和電子郵件、短信服務(wù)等增值電信業(yè)務(wù),也涉及網(wǎng)絡(luò)新聞、網(wǎng)絡(luò)文化、網(wǎng)絡(luò)出版等內(nèi)容,因此會(huì)涉及諸多資質(zhì)。基于此,白皮書(shū)將相關(guān)資質(zhì)分為互聯(lián)網(wǎng)信息服務(wù)提供者的基礎(chǔ)資質(zhì)和提供具體服務(wù)的特殊資質(zhì)兩大類(lèi),并重點(diǎn)說(shuō)明相關(guān)企業(yè)應(yīng)當(dāng)注意的監(jiān)管要求。第四章企業(yè)級(jí)
AI的合規(guī)要求12可信人工智能治理
白皮書(shū)4.2.1算法備案要求算法備案制度要求具有輿論屬性或者社會(huì)動(dòng)員
能力的算法推薦服務(wù)提供者、深度合成服務(wù)提供者、
深度合成服務(wù)技術(shù)支持者和生成式人工智能服務(wù)提
供者,按照法律程序就其所使用的算法推薦技術(shù)、
深度合成技術(shù)和生成式人工智能技術(shù)進(jìn)行備案。其中,“具有輿論屬性或者社會(huì)動(dòng)員能力”是指
以下兩種情形:(1)開(kāi)辦論壇、博客、微博客、聊天室、通訊群組、公眾賬號(hào)、短視頻、網(wǎng)絡(luò)直播、
信息分享、小程序等信息服務(wù)或者附設(shè)相應(yīng)功能;(2)
開(kāi)辦提供公眾輿論表達(dá)渠道或者具有發(fā)動(dòng)社會(huì)公眾
從事特定活動(dòng)能力的其他互聯(lián)網(wǎng)信息服務(wù)。算法推
薦服務(wù)提供者是指利用生成合成類(lèi)、個(gè)性化推送類(lèi)、
排序精選類(lèi)、檢索過(guò)濾類(lèi)、調(diào)度決策類(lèi)等算法技術(shù)
向用戶(hù)提供信息的組織或個(gè)人;深度合成服務(wù)提供
者是指通過(guò)利用深度學(xué)習(xí)、虛擬現(xiàn)實(shí)等生成合成類(lèi)
算法制作文本、圖像、音頻、視頻、虛擬場(chǎng)景等網(wǎng)絡(luò)信息的技術(shù)來(lái)提供服務(wù)的組織或個(gè)人;技術(shù)支持
者是指為深度合成服務(wù)提供技術(shù)支持的組織、個(gè)人;
生成式人工智能服務(wù)提供者是指利用生成式人工智
能技術(shù)提供生成式人工智能服務(wù)(包括通過(guò)提供可編程接口等方式提供生成式人工智能服務(wù))的組織、
個(gè)人。符合前述條件的企業(yè)應(yīng)當(dāng)通過(guò)互聯(lián)網(wǎng)信息服務(wù)
算法備案系統(tǒng)填報(bào)服務(wù)提供者的名稱(chēng)、服務(wù)形式、
應(yīng)用領(lǐng)域、算法類(lèi)型、算法自評(píng)估報(bào)告、擬公示內(nèi)
容等信息,以履行備案手續(xù)。4.2.2算法評(píng)估要求根據(jù)評(píng)估主體的不同,算法評(píng)估可以區(qū)分為自
評(píng)估和監(jiān)管機(jī)構(gòu)評(píng)估。自評(píng)估是指具有輿論屬性或
者社會(huì)動(dòng)員能力的算法推薦服務(wù)提供者、深度合成
服務(wù)提供者和技術(shù)支持者、具有輿論屬性或者社會(huì)
動(dòng)員能力的生成式人工智能服務(wù)提供者、上線(xiàn)具有
輿論屬性或者社會(huì)動(dòng)員能力的新技術(shù)、新應(yīng)用、新4.2算法合規(guī)要求在《中華人民共和國(guó)網(wǎng)絡(luò)安全法》《中華人民共和國(guó)數(shù)據(jù)安全法》《中華人民共和國(guó)個(gè)人信息保護(hù)法》三駕馬車(chē)的引領(lǐng)下,算法合規(guī)要求的主要依據(jù)來(lái)源于《算法推薦管理規(guī)定》《深度合成管理規(guī)定》和《生成式人
工智能服務(wù)管理辦法》的監(jiān)管規(guī)范,并初步形成了算法合規(guī)義務(wù)清單。圖4算法合規(guī)義務(wù)清單本節(jié)主要解讀算法備案、算法評(píng)估和算法透明性要求,聚焦企業(yè)的基礎(chǔ)合規(guī)要點(diǎn)與實(shí)踐操作指引。第四章企業(yè)級(jí)
AI的合規(guī)要求13可信人工智能治理
白皮書(shū)功能的應(yīng)用程序提供者、互聯(lián)網(wǎng)新聞信息服務(wù)提供者、互聯(lián)網(wǎng)信息服務(wù)提供者等主體,就其所應(yīng)用的
技術(shù)自行組織開(kāi)展或委托第三方機(jī)構(gòu)進(jìn)行安全評(píng)估。
監(jiān)管機(jī)構(gòu)評(píng)估是指網(wǎng)信、電信、公安、市場(chǎng)監(jiān)管等
有關(guān)部門(mén)就相關(guān)企業(yè)所應(yīng)用的技術(shù)自行組織或委托
第三方機(jī)構(gòu)開(kāi)展安全評(píng)估。從評(píng)估對(duì)象角度,算法評(píng)估包括針對(duì)服務(wù)和技
術(shù)的評(píng)估。針對(duì)算法服務(wù)的評(píng)估內(nèi)容主要包括算法
梳理情況、對(duì)算法服務(wù)基本原理、目的意圖和主要
運(yùn)行機(jī)制的公示、安全風(fēng)險(xiǎn)、可恢復(fù)性、安全應(yīng)急
處置機(jī)制、個(gè)人信息收集和使用的安全管理、用戶(hù)選擇的彈窗等設(shè)置以及投訴舉報(bào)反饋機(jī)制。針對(duì)算
法技術(shù)的評(píng)估內(nèi)容主要包括算法的通用條款、設(shè)計(jì)
開(kāi)發(fā)、驗(yàn)證確認(rèn)、部署運(yùn)行、維護(hù)升級(jí)和退役下線(xiàn)
的具體技術(shù)情況。因此,算法服務(wù)提供者應(yīng)當(dāng)開(kāi)展算法自評(píng)估活動(dòng),就其所提供的服務(wù)進(jìn)行安全評(píng)估。算法自評(píng)估
報(bào)告應(yīng)當(dāng)覆蓋下列信息:第一,算法基礎(chǔ)屬性信息:
選擇所需備案算法的算法類(lèi)型、應(yīng)用領(lǐng)域、使用場(chǎng)
景等,并填寫(xiě)《算法安全自評(píng)估報(bào)告》和《擬公示內(nèi)容》;第二,算法詳細(xì)描述信息:填寫(xiě)算法簡(jiǎn)介、應(yīng)用范圍、服務(wù)群體、用戶(hù)數(shù)量、社會(huì)影響情況、軟硬件設(shè)施及部署位置等信息;第三,算法風(fēng)險(xiǎn)描述信息:根據(jù)評(píng)估算法特點(diǎn),確定可能存在的算法濫用、惡意利用、算法漏洞等安全風(fēng)險(xiǎn),并加以描述。4.2.3算法透明性要求算法監(jiān)管規(guī)范將企業(yè)的透明性義務(wù)表述為“告知”,即算法推薦服務(wù)提供者應(yīng)當(dāng)以顯著方式告知用戶(hù)其提
供算法推薦服務(wù)的情況,并以適當(dāng)方式公示算法推薦服務(wù)的基本原理、目的意圖和主要運(yùn)行機(jī)制等;深度合成服務(wù)提供者和技術(shù)支持者提供人臉、人聲等生物識(shí)別信息編輯功能的,應(yīng)當(dāng)提示深度合成服務(wù)使用者
依法告知被編輯的個(gè)人,并取得其單獨(dú)同意。實(shí)踐中,企業(yè)作為服務(wù)提供者應(yīng)當(dāng)重視相關(guān)規(guī)則的透明化和可解釋化,在提供算法相關(guān)服務(wù)時(shí),以顯著的方式告知用戶(hù)基本情況,并以可理解的語(yǔ)言表述公示算法的基本原理、使用目的和運(yùn)行情況。需要取得同意的,應(yīng)當(dāng)及時(shí)告知用戶(hù)并征得其明確單獨(dú)的同
意。第四章企業(yè)級(jí)
AI的合規(guī)要求14可信人工智能治理
白皮書(shū)絡(luò)信息內(nèi)容生產(chǎn)者責(zé)任,深度合成服務(wù)提供者則承擔(dān)信息內(nèi)容管理主體責(zé)任,采取技術(shù)或者人工方式
對(duì)深度合成服務(wù)使用者的輸入數(shù)據(jù)和合成結(jié)果進(jìn)行
審核。目前,內(nèi)容審核義務(wù)主要由網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺(tái)承擔(dān)。2021年9月15
日,
國(guó)家互聯(lián)網(wǎng)信息辦
公室發(fā)布《關(guān)于進(jìn)一步壓實(shí)網(wǎng)站平臺(tái)信息內(nèi)容管理
主體責(zé)任的意見(jiàn)》,
明確要求網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺(tái)充分發(fā)揮網(wǎng)站平臺(tái)信息內(nèi)容管理第一責(zé)任人作用。
因此,網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺(tái)企業(yè)應(yīng)當(dāng)健全內(nèi)容審
核機(jī)制,依據(jù)意見(jiàn)落實(shí)總編輯負(fù)責(zé)制度,明確總編
輯在信息內(nèi)容審核方面的權(quán)利和所應(yīng)承擔(dān)的責(zé)任,
以建立總編輯對(duì)全產(chǎn)品、全鏈條信息內(nèi)容的審核工
作機(jī)制。4.3.1生成內(nèi)容審核義務(wù)從義務(wù)主體角度,深度合成服務(wù)提供者、生成
式人工智能服務(wù)提供者、應(yīng)用程序提供者、應(yīng)用程
序分發(fā)平臺(tái)、網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者、網(wǎng)絡(luò)信息內(nèi)容
服務(wù)平臺(tái)和互聯(lián)網(wǎng)信息服務(wù)提供者都應(yīng)當(dāng)對(duì)網(wǎng)絡(luò)信
息內(nèi)容負(fù)有責(zé)任。依據(jù)其性質(zhì),可以將這些主體分
為網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者、網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺(tái)和
網(wǎng)絡(luò)信息內(nèi)容服務(wù)提供者三類(lèi)。其中,
網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者就其制作、復(fù)制、發(fā)布相關(guān)信息承擔(dān)責(zé)任;網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺(tái)主
要就其提供的發(fā)布、下載、動(dòng)態(tài)加載等網(wǎng)絡(luò)信息內(nèi)
容傳播服務(wù)承擔(dān)責(zé)任,即信息內(nèi)容管理主體責(zé)任;
網(wǎng)絡(luò)信息內(nèi)容服務(wù)提供者則根據(jù)情況承擔(dān)不同的責(zé)
任,例如,生成式人工智能服務(wù)提供者依法承擔(dān)網(wǎng)4.3
內(nèi)容合規(guī)要求我國(guó)重視內(nèi)容治理,多部規(guī)范就生成內(nèi)容為企業(yè)設(shè)定了合規(guī)要求,具體包括內(nèi)容審核義務(wù)、內(nèi)容標(biāo)識(shí)義務(wù)和投訴處理機(jī)制。圖5人工智能生成內(nèi)容的合規(guī)要求第四章企業(yè)級(jí)
AI的合規(guī)要求15可信人工智能治理
白皮書(shū)4.3.2生成內(nèi)容標(biāo)識(shí)義務(wù)內(nèi)容標(biāo)識(shí)義務(wù)主要圍繞合成內(nèi)容展開(kāi)。算法推薦服務(wù)提供者負(fù)有對(duì)未作顯著標(biāo)識(shí)的算法生成合成
信息進(jìn)行標(biāo)識(shí)的義務(wù);深度合成服務(wù)提供者對(duì)使用其深度合成服務(wù)生成或者編輯的信息內(nèi)容,以及所
提供的特定深度合成服務(wù)可能導(dǎo)致公眾混淆或者誤
認(rèn)的,都負(fù)有標(biāo)識(shí)義務(wù);生成式人工智能服務(wù)提供
者負(fù)有對(duì)圖片、視頻等生成內(nèi)容進(jìn)行標(biāo)識(shí)的義務(wù)。內(nèi)容標(biāo)識(shí)的對(duì)象包括算法生成合成信息、深度合成的信息以及生成內(nèi)容,據(jù)此分析,標(biāo)識(shí)的目的
在于說(shuō)明相關(guān)內(nèi)容非真人產(chǎn)出的情況。因此,企業(yè)
應(yīng)當(dāng)重視內(nèi)容輸出時(shí)的標(biāo)識(shí)要求,根據(jù)具體情況采用顯式水印標(biāo)識(shí)或隱式水印標(biāo)識(shí),對(duì)人工智能生成內(nèi)容標(biāo)識(shí)“由AI生成”或“人工智能為您提供服務(wù)”等
字樣。4.3.3建立投訴舉報(bào)機(jī)制投訴舉報(bào)機(jī)制是保護(hù)用戶(hù)權(quán)益和體現(xiàn)透明度的
有效路徑。投訴舉報(bào)不僅是針對(duì)算法推薦內(nèi)容、深
度合成內(nèi)容和人工智能生成內(nèi)容的內(nèi)容合規(guī)的重要
路徑,同樣也是應(yīng)用程序合規(guī)的基本要求。企業(yè)應(yīng)
當(dāng)設(shè)置便捷的用戶(hù)申訴和公眾投訴、舉報(bào)入口,公
布投訴舉報(bào)方式,公布處理流程和反饋時(shí)限,及時(shí)
受理、處理公眾投訴舉報(bào)并反饋處理結(jié)果。第四章企業(yè)級(jí)
AI的合規(guī)要求16可信人工智能治理
白皮書(shū)05PART5.1風(fēng)險(xiǎn)治理架構(gòu)人工智能風(fēng)險(xiǎn)治理架構(gòu)旨在構(gòu)建一套周詳而立體的體系,
強(qiáng)化對(duì)人工智能潛在風(fēng)險(xiǎn)的管控效能,并提升人
工智能技術(shù)的可靠性與責(zé)任感。該架構(gòu)由若干緊密交織的層面組成,每一層面均針對(duì)人工智能治理的特定維度進(jìn)行深入考量和精細(xì)規(guī)劃,從而確保整個(gè)架構(gòu)的協(xié)同運(yùn)作與高效實(shí)施。通過(guò)這種多維度的治理機(jī)制,我們期望
實(shí)現(xiàn)對(duì)人工智能技術(shù)發(fā)展與應(yīng)用的全方位引導(dǎo),確保其在遵循倫理準(zhǔn)則和社會(huì)責(zé)任的前提下穩(wěn)健前行。第五章人工智能風(fēng)險(xiǎn)治理圖6人工智能風(fēng)險(xiǎn)治理框架第五章人工智能風(fēng)險(xiǎn)治理
17可信人工智能治理
白皮書(shū)危機(jī)時(shí)快速響應(yīng)和有效應(yīng)對(duì),減少對(duì)企業(yè)聲譽(yù)的負(fù)面影響。這種危機(jī)管理能力是企業(yè)聲譽(yù)保護(hù)的關(guān)鍵,
有助于企業(yè)在復(fù)雜多變的市場(chǎng)環(huán)境中保持穩(wěn)定發(fā)展,贏(yíng)得消費(fèi)者和社會(huì)的長(zhǎng)期信任。5.1.2風(fēng)險(xiǎn)治理架構(gòu)對(duì)創(chuàng)新的推動(dòng)在技術(shù)創(chuàng)新方面,人工智能風(fēng)險(xiǎn)治理架構(gòu)也有
著深遠(yuǎn)影響。它首先確保了技術(shù)創(chuàng)新活動(dòng)在安全可
控的范圍內(nèi)進(jìn)行,避免潛在的倫理和法律風(fēng)險(xiǎn)。通
過(guò)制定相應(yīng)的政策和標(biāo)準(zhǔn),人工智能風(fēng)險(xiǎn)治理架構(gòu)
能夠引導(dǎo)技術(shù)開(kāi)發(fā)者遵循最佳實(shí)踐,從而提高技術(shù)
創(chuàng)新的質(zhì)量和可靠性。進(jìn)一步地,人工智能風(fēng)險(xiǎn)治理架構(gòu)通過(guò)識(shí)別和
評(píng)估技術(shù)創(chuàng)新的潛在風(fēng)險(xiǎn),促進(jìn)了技術(shù)創(chuàng)新的健康
發(fā)展。該架構(gòu)賦予了相關(guān)部門(mén)前瞻性地采取措施的
能力,以減少負(fù)面影響,保護(hù)公眾利益,并通過(guò)維
護(hù)市場(chǎng)秩序和增強(qiáng)消費(fèi)者信心,為人工智能創(chuàng)新發(fā)
展注入了持續(xù)的活力。此外,人工智能風(fēng)險(xiǎn)治理架構(gòu)在全球化背景下
尤為重要,其促進(jìn)了跨國(guó)企業(yè)間的交流與合作。通
過(guò)共同制定和遵守統(tǒng)一的治理架構(gòu),各國(guó)企業(yè)可以
加強(qiáng)信息共享和經(jīng)驗(yàn)交流,共同應(yīng)對(duì)全球性挑戰(zhàn),人工智能風(fēng)險(xiǎn)治理架構(gòu)對(duì)企業(yè)的影響是多維度的,它不僅塑造了企業(yè)運(yùn)營(yíng)的穩(wěn)健性,也是推動(dòng)創(chuàng)
新和維護(hù)聲譽(yù)的關(guān)鍵因素。企業(yè)需要認(rèn)識(shí)到風(fēng)險(xiǎn)治
理的重要性,并積極構(gòu)建和實(shí)施這一架構(gòu),以實(shí)現(xiàn)
人工智能技術(shù)的健康發(fā)展和商業(yè)價(jià)值的最大化。通
過(guò)有效的風(fēng)險(xiǎn)治理,企業(yè)不僅能夠提升自身的競(jìng)爭(zhēng)
力,也能夠?yàn)樯鐣?huì)的可持續(xù)發(fā)展做出貢獻(xiàn)。人工智能風(fēng)險(xiǎn)治理架構(gòu)為企業(yè)提供了一個(gè)結(jié)構(gòu)
化的決策支持系統(tǒng)。通過(guò)風(fēng)險(xiǎn)識(shí)別和量化,企業(yè)能
夠更準(zhǔn)確地評(píng)估人工智能項(xiàng)目的風(fēng)險(xiǎn)和收益,做出更加科學(xué)和合理的決策。此外,該架構(gòu)還強(qiáng)調(diào)了風(fēng)
險(xiǎn)溝通的重要性,通過(guò)提高企業(yè)內(nèi)部和外部的風(fēng)險(xiǎn)
透明度,增強(qiáng)了公眾對(duì)企業(yè)決策的信任,為企業(yè)樹(shù)
立了積極的社會(huì)責(zé)任形象。同時(shí),人工智能風(fēng)險(xiǎn)治理架構(gòu)為企業(yè)在人工智能領(lǐng)域的創(chuàng)新嘗試和探索提供了一個(gè)安全的環(huán)境。
通過(guò)平衡風(fēng)險(xiǎn)管理和創(chuàng)新需求,企業(yè)能夠在保障安
全的前提下,實(shí)現(xiàn)可持續(xù)的創(chuàng)新發(fā)展。這種平衡策
略不僅有助于企業(yè)在市場(chǎng)中保持領(lǐng)先地位,也是企
業(yè)聲譽(yù)和品牌忠誠(chéng)度提升的基石。積極的人工智能風(fēng)險(xiǎn)治理還使企業(yè)能夠在面臨5.1.1風(fēng)險(xiǎn)治理架構(gòu)對(duì)企業(yè)的指導(dǎo)人工智能技術(shù)的崛起為企業(yè)提供了巨大的機(jī)遇,但同時(shí)也帶來(lái)了復(fù)雜的風(fēng)險(xiǎn)挑戰(zhàn)。因此,一個(gè)全面的人工
智能風(fēng)險(xiǎn)治理架構(gòu)對(duì)于企業(yè)來(lái)說(shuō)至關(guān)重要,它不僅關(guān)系到企業(yè)的合規(guī)性、安全性、社會(huì)責(zé)任和商業(yè)連續(xù)性,還
直接影響到企業(yè)的運(yùn)營(yíng)效率、決策質(zhì)量、創(chuàng)新能力和市場(chǎng)聲譽(yù)。人工智能風(fēng)險(xiǎn)治理架構(gòu)是企業(yè)應(yīng)對(duì)人工智能相關(guān)風(fēng)險(xiǎn)的基礎(chǔ),它包括風(fēng)險(xiǎn)識(shí)別、評(píng)估、監(jiān)控和緩解等多個(gè)環(huán)節(jié),涵蓋了數(shù)據(jù)管理、模型開(kāi)發(fā)、技術(shù)應(yīng)用和倫
理合規(guī)等多個(gè)方面。該治理架構(gòu)為企業(yè)提供了以下指導(dǎo)和建議: 在數(shù)據(jù)管理上建立嚴(yán)格的政策和流程,確保數(shù)據(jù)的質(zhì)量和安全,同時(shí)符合數(shù)據(jù)保護(hù)法規(guī)。這不僅提高了數(shù)據(jù)的可靠性,也為人工智能模型的開(kāi)發(fā)和部署提供了堅(jiān)實(shí)的基礎(chǔ)。
確保人工智能模型的開(kāi)發(fā)過(guò)程遵循公平性、透明度和可解釋性原則,避免算法偏見(jiàn)和歧視。這要求企業(yè)
在模型設(shè)計(jì)、訓(xùn)練和驗(yàn)證階段進(jìn)行嚴(yán)格的風(fēng)險(xiǎn)評(píng)估和測(cè)試。
建立實(shí)時(shí)監(jiān)控系統(tǒng),對(duì)人工智能系統(tǒng)的性能進(jìn)行持續(xù)評(píng)估,及時(shí)發(fā)現(xiàn)并應(yīng)對(duì)潛在風(fēng)險(xiǎn)。這不僅提高了系統(tǒng)的穩(wěn)定性和可靠性,也為風(fēng)險(xiǎn)管理和決策提供了實(shí)時(shí)數(shù)據(jù)支持。第五章人工智能風(fēng)險(xiǎn)治理
18可信人工智能治理
白皮書(shū)圖7人工智能生命周期及對(duì)應(yīng)風(fēng)險(xiǎn)模型管理人工智能生命周期是確保技術(shù)可信、合規(guī)和有效的關(guān)鍵。問(wèn)題識(shí)別是人工智能項(xiàng)目啟動(dòng)的初期階段,主要工作包括收集和分析用戶(hù)及業(yè)務(wù)需求,梳理合規(guī)要求以初步評(píng)估風(fēng)險(xiǎn),設(shè)計(jì)系統(tǒng)架構(gòu),規(guī)劃必要資源,制定項(xiàng)目計(jì)劃,為項(xiàng)目的順利實(shí)施打下堅(jiān)實(shí)基礎(chǔ)。在明確人工智能的設(shè)計(jì)需求后,就要開(kāi)始準(zhǔn)備訓(xùn)練人工智能所需的數(shù)據(jù)。這一階段的工作重點(diǎn)在于合法合
規(guī)地收集數(shù)據(jù),并通過(guò)清洗和標(biāo)注提高數(shù)據(jù)質(zhì)量,同時(shí)進(jìn)行特征工程以增強(qiáng)模型的預(yù)測(cè)能力。在開(kāi)展模型訓(xùn)練前,要選擇合適的算法,進(jìn)行調(diào)優(yōu),并在后續(xù)訓(xùn)練和驗(yàn)證過(guò)程中進(jìn)一步評(píng)估模型性能,確保其準(zhǔn)確性和泛化能力。進(jìn)入模型部署階段,工作轉(zhuǎn)向確保模型在生產(chǎn)環(huán)境中的穩(wěn)定運(yùn)行,包括制定和實(shí)施部署策略。在模型穩(wěn)定
運(yùn)行后,則側(cè)重于監(jiān)控模型性能,收集用戶(hù)反饋,并及時(shí)響應(yīng)任何性能下降或偏差。隨著環(huán)境變化,模型可能推動(dòng)全球技術(shù)創(chuàng)新的進(jìn)步。綜上所述,人工智能風(fēng)險(xiǎn)治理架構(gòu)對(duì)技術(shù)創(chuàng)新
具有積極的推動(dòng)作用,它不僅能夠保障技術(shù)創(chuàng)新的
安全性,還能夠促進(jìn)技術(shù)創(chuàng)新的健康發(fā)展和國(guó)際合
作,為全球人工智能技術(shù)創(chuàng)新的繁榮貢獻(xiàn)了力量。5.1.3風(fēng)險(xiǎn)治理架構(gòu)對(duì)市場(chǎng)的維護(hù)人工智能風(fēng)險(xiǎn)治理架構(gòu)在維護(hù)市場(chǎng)公平競(jìng)爭(zhēng)中
也發(fā)揮著至關(guān)重要的作用。首先,它有助于確保人
工智能技術(shù)的合規(guī)性,防止濫用人工智能造成市場(chǎng)
壟斷或不正當(dāng)競(jìng)爭(zhēng)。通過(guò)制定嚴(yán)格的倫理標(biāo)準(zhǔn)和監(jiān)
管措施,該架構(gòu)能夠限制企業(yè)利用算法優(yōu)勢(shì)排擠競(jìng)
爭(zhēng)對(duì)手,維護(hù)市場(chǎng)的公平性。其次,人工智能風(fēng)險(xiǎn)治理架構(gòu)通過(guò)增強(qiáng)透明度
和問(wèn)責(zé)制,加深了市場(chǎng)參與者之間的信任。透明的決策過(guò)程和明確的責(zé)任歸屬使消費(fèi)者和其他利益相關(guān)者更容易認(rèn)可人工智能市場(chǎng)的公平性,這對(duì)于保
持市場(chǎng)秩序和穩(wěn)定至關(guān)重要。最后,人工智能風(fēng)險(xiǎn)治理架構(gòu)還有助于應(yīng)對(duì)數(shù)
據(jù)安全、隱私侵犯等潛在風(fēng)險(xiǎn)和挑戰(zhàn)。通過(guò)預(yù)防和
解決這些問(wèn)題,該架構(gòu)不僅保護(hù)了消費(fèi)者權(quán)益,也
維護(hù)了整個(gè)市場(chǎng)生態(tài)的健康發(fā)展。綜上所述,人工智能風(fēng)險(xiǎn)治理架構(gòu)通過(guò)確保技
術(shù)合規(guī)性、促進(jìn)透明度和問(wèn)責(zé)制、以及有效應(yīng)對(duì)風(fēng)
險(xiǎn)挑戰(zhàn),共同營(yíng)造了一個(gè)公平、透明和健康的市場(chǎng)
環(huán)境。這些措施不僅維護(hù)了市場(chǎng)的競(jìng)爭(zhēng)秩序,也為
所有參與者創(chuàng)造了一個(gè)更加穩(wěn)定和可預(yù)測(cè)的商業(yè)氛
圍。5.2生命周期風(fēng)險(xiǎn)治理第五章人工智能風(fēng)險(xiǎn)治理
19可信人工智能治理
白皮書(shū)5.2.1風(fēng)險(xiǎn)管理左移風(fēng)險(xiǎn)管理左移旨在將風(fēng)險(xiǎn)評(píng)估和緩解提前到項(xiàng)
目生命周期的起始階段,其核心在于盡早識(shí)別潛在
風(fēng)險(xiǎn)。企業(yè)需要在規(guī)劃和設(shè)計(jì)階段深入分析項(xiàng)目需
求,評(píng)估技術(shù)可行性,預(yù)測(cè)資源需求,并識(shí)別潛在
合規(guī)性與倫理問(wèn)題。這種做法有助于企業(yè)制定全面
的預(yù)防策略,減少后期返工和成本,確保項(xiàng)目順利
推進(jìn)。在項(xiàng)目啟動(dòng)初期,企業(yè)必須進(jìn)行全面的合規(guī)性
審查,確保符合法律法規(guī)、數(shù)據(jù)保護(hù)、隱私標(biāo)準(zhǔn)、
知識(shí)產(chǎn)權(quán)和倫理準(zhǔn)則。這一過(guò)程旨在預(yù)防法律和合
規(guī)風(fēng)險(xiǎn),確立合法的項(xiàng)目設(shè)計(jì)和實(shí)施框架,增強(qiáng)各
利益方的信任。同時(shí),企業(yè)應(yīng)制定合規(guī)策略和控制措施,保障項(xiàng)目持續(xù)遵循規(guī)定,為項(xiàng)目的順利進(jìn)行
和成功交付奠定基礎(chǔ)。當(dāng)企業(yè)考慮與第三方合作人工智能項(xiàng)目時(shí),需
要對(duì)其資質(zhì)、信譽(yù)和技術(shù)能力進(jìn)行嚴(yán)格評(píng)估和審查,
并簽訂服務(wù)水平協(xié)議、合同等明確各自的責(zé)任和義
務(wù)。同時(shí),企業(yè)還需建立一套有效的監(jiān)督機(jī)制,確
保第三方服務(wù)提供商的行為符合企業(yè)的風(fēng)險(xiǎn)管理政
策和標(biāo)準(zhǔn)。高質(zhì)量數(shù)據(jù)集的構(gòu)建是保障可信人工智能準(zhǔn)確
性、公平性的基礎(chǔ)。企業(yè)需確保數(shù)據(jù)的合法合規(guī)采集、
數(shù)據(jù)源的可信度和透明度以及數(shù)據(jù)集的多樣性和代
表性;同時(shí),還應(yīng)開(kāi)展數(shù)據(jù)清洗、預(yù)處理和標(biāo)注工作,
輔以機(jī)器
/人工審核和校對(duì),提升后續(xù)模型訓(xùn)練的效
率。在進(jìn)行數(shù)據(jù)集管理時(shí),企業(yè)應(yīng)詳細(xì)記錄數(shù)據(jù)的來(lái)源、構(gòu)成情況以及預(yù)處理操作,并進(jìn)行文檔化記錄,確保數(shù)據(jù)的可追溯性和透明度。為提高模型的時(shí)效
性和預(yù)測(cè)能力,企業(yè)還應(yīng)加強(qiáng)數(shù)據(jù)集的可擴(kuò)展性和可維護(hù)性,定期更新數(shù)據(jù)集的同時(shí)完善數(shù)據(jù)集的版
本控制。此外,數(shù)據(jù)安全與隱私保護(hù)是數(shù)據(jù)集管理
的另一核心,企業(yè)需通過(guò)加密和訪(fǎng)問(wèn)控制等措施來(lái)
保護(hù)數(shù)據(jù),并定期開(kāi)展合規(guī)性與倫理審查。5.2.2敏捷管理模式敏捷管理模式強(qiáng)調(diào)快速響應(yīng)和持續(xù)改進(jìn),風(fēng)險(xiǎn)治理需與這一理念相匹配,確保在整個(gè)生命周期中,
風(fēng)險(xiǎn)得到及時(shí)識(shí)別、評(píng)估和控制。首先,在進(jìn)行模型選擇時(shí),需要評(píng)估不同模型
的理論基礎(chǔ)、性能指標(biāo)和適用性,選擇在準(zhǔn)確性、
泛化能力、魯棒性、可追溯性和可解釋性方面表現(xiàn)
最佳的模型。同時(shí),考慮到潛在的風(fēng)險(xiǎn),如數(shù)據(jù)偏
見(jiàn)、模型復(fù)雜性和對(duì)抗性攻擊等脆弱性,要選擇在
源頭上最小化這些風(fēng)險(xiǎn)的模型。此外,模型選擇還
應(yīng)考慮合規(guī)性和倫理性,確保所選模型符合法律法
規(guī)和行業(yè)標(biāo)準(zhǔn),且避免對(duì)特定群體產(chǎn)生不公平的影
響。對(duì)于訓(xùn)練、優(yōu)化模型所使用的算法,企業(yè)需要深入理解它們的優(yōu)缺點(diǎn)和適用場(chǎng)景以選擇最佳方案。
在此基礎(chǔ)上,設(shè)計(jì)算法原型并進(jìn)行初步測(cè)試,以評(píng)
估算法在實(shí)際應(yīng)用中的可行性和性能。同時(shí),要在
算法開(kāi)發(fā)的早期階段就進(jìn)行機(jī)制機(jī)理的審核,確保
算法的目的、采用的技術(shù)、干預(yù)的方式等均符合預(yù)
期目標(biāo)和倫理標(biāo)準(zhǔn)。在模型訓(xùn)練階段,有效的模型訓(xùn)練管理確保了會(huì)經(jīng)過(guò)變更完成迭代,這一過(guò)程需要優(yōu)化模型以適應(yīng)新數(shù)據(jù)或業(yè)務(wù)需求,同時(shí)進(jìn)行影響評(píng)估和測(cè)試以確保變更的有效性。最終,若模型不再使用,還需考慮知識(shí)保留和數(shù)據(jù)存檔,確保平穩(wěn)過(guò)渡和歷史數(shù)據(jù)的安全性。管理人工智能生命周期中的風(fēng)險(xiǎn)是實(shí)現(xiàn)監(jiān)管機(jī)構(gòu)所提倡的可信人工智能的關(guān)鍵。在整個(gè)人工智能生命周期
中,風(fēng)險(xiǎn)無(wú)處不在,企業(yè)需要從生命周期的各個(gè)階段入手,建立全面的風(fēng)險(xiǎn)治理機(jī)制,確保人工智能系統(tǒng)在設(shè)計(jì)、
開(kāi)發(fā)、部署和運(yùn)行的每個(gè)環(huán)節(jié)都符合監(jiān)管要求,減少風(fēng)險(xiǎn)發(fā)生的可能性,提高系統(tǒng)的可靠性和用戶(hù)的信任度。這不僅有助于保護(hù)用戶(hù)隱私和數(shù)據(jù)安全,也有助于企業(yè)在快速變化的市場(chǎng)中保持競(jìng)爭(zhēng)力,實(shí)現(xiàn)可持續(xù)發(fā)展和可
信人工智能的目標(biāo)。第五章人工智能風(fēng)險(xiǎn)治理
20可信人工智能治理
白皮書(shū)人工智能模型的高效開(kāi)發(fā)和性能優(yōu)化。這一過(guò)程包括資源合理分配、自動(dòng)化超參數(shù)調(diào)優(yōu)、實(shí)施訓(xùn)練指
標(biāo)監(jiān)控等,并采取正則化和數(shù)據(jù)增強(qiáng)策略防止過(guò)擬
合。同時(shí),維護(hù)數(shù)據(jù)質(zhì)量、實(shí)施版本控制、保存模
型狀態(tài)、記錄詳細(xì)日志,以及確保訓(xùn)練過(guò)程的安全性,
都是提升模型可復(fù)現(xiàn)性、可追蹤性和透明度的基礎(chǔ)
措施。在人工智能模型部署前進(jìn)行測(cè)試是確保其安全
性和可靠性的一項(xiàng)關(guān)鍵措施。通過(guò)功能、性能、安
全性測(cè)試和合規(guī)性檢查,可以對(duì)模型的準(zhǔn)確性、穩(wěn)
定性、透明度、可解釋性、隱私保護(hù)和公平性開(kāi)展
綜合評(píng)估。其目的在于發(fā)現(xiàn)并修復(fù)模型中的漏洞,
保證其在面對(duì)各種可能的攻擊和濫用時(shí)的魯棒性。
同時(shí),制定靈活的部署策略至關(guān)重要。可以通過(guò)模
塊化部署等方式確保模型與現(xiàn)有系統(tǒng)的兼容性。通
常建議企業(yè)實(shí)施隔離部署,將人工智能系統(tǒng)或關(guān)鍵
組件部署在隔離環(huán)境中,以控制交互風(fēng)險(xiǎn)。此外,
通過(guò)自動(dòng)化監(jiān)控和彈性擴(kuò)展機(jī)制動(dòng)態(tài)調(diào)整資源,可
以應(yīng)對(duì)用戶(hù)和數(shù)據(jù)量的增長(zhǎng),保障模型性能和系統(tǒng)
穩(wěn)定性。企業(yè)應(yīng)及時(shí)收集和
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年航空安全管理考試試卷及答案
- 2025年護(hù)理學(xué)專(zhuān)業(yè)考試試卷及答案
- 日式裝修風(fēng)格廚房設(shè)計(jì)說(shuō)明
- 浙江紹興市紹城城市服務(wù)有限公司招聘筆試題庫(kù)2025
- 校園衛(wèi)生工作安排
- T/TMAC 040.F-2022青少年智能科技創(chuàng)新實(shí)踐能力等級(jí)評(píng)定
- T/TMAC 010.F-2019技術(shù)市場(chǎng)交易標(biāo)的信息披露
- 水的衛(wèi)生及其管理
- 室內(nèi)設(shè)計(jì)模板軟件
- 從傳統(tǒng)到現(xiàn)代翻轉(zhuǎn)課堂的實(shí)施與影響分析
- 小學(xué)六年級(jí)數(shù)學(xué)奧數(shù)題100題附答案(完整版)
- 加盟如家合同范本
- 創(chuàng)業(yè)基礎(chǔ)智慧樹(shù)知到期末考試答案章節(jié)答案2024年山東大學(xué)
- 2024版工程項(xiàng)目結(jié)算協(xié)議書(shū)范本
- 新時(shí)代勞動(dòng)教育教程(高校勞動(dòng)教育課程)全套教學(xué)課件
- 北京市某低溫?zé)崴匕遢椛洳膳こ淘O(shè)計(jì) 畢業(yè)設(shè)計(jì)
- 懂設(shè)備原理會(huì)維護(hù)保養(yǎng)
- 英語(yǔ)中考專(zhuān)題復(fù)習(xí)-短文填空
- 機(jī)加工車(chē)間培訓(xùn)計(jì)劃
- St完整版本.-Mary's-醫(yī)院睡眠問(wèn)卷
- 25第11課第三框《違約侵權(quán)要承擔(dān)民事責(zé)任》
評(píng)論
0/150
提交評(píng)論