




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
從原則到實(shí)踐:動(dòng)態(tài)監(jiān)管下負(fù)責(zé)任的人工智能security人工智能治理和合規(guī)工作組永久的官方網(wǎng)址是:/research/working-groups/ai-governance-c◎2025云安全聯(lián)盟大中華區(qū)-保留所有權(quán)利。你可以在你的電腦上下載、儲(chǔ)存、展示、查看及打印,或者訪問云安全聯(lián)盟大中華區(qū)官網(wǎng)()。須遵守以下:(a)本文只可作個(gè)人、信息獲取、非商業(yè)用途;(b)本文內(nèi)容不得篡改;(c)本文不得轉(zhuǎn)發(fā);(d)該商標(biāo)、版權(quán)或其他聲明不得刪除。在遵循中華人民共和國(guó)著作權(quán)法相關(guān)條款情況下合理使用本文內(nèi)容,使用時(shí)請(qǐng)注明引用于云安全聯(lián)盟大中華區(qū)。O2025云安全聯(lián)盟大中華區(qū)版權(quán)所有2聯(lián)盟簡(jiǎn)介我們的工作云安全云安全區(qū)塊鏈10萬+區(qū)塊鏈數(shù)據(jù)安全大會(huì)活動(dòng)云審計(jì)國(guó)際云安全專家認(rèn)證與數(shù)據(jù)保護(hù)云滲透云安全元宇宙安全零信任峰會(huì)隱私計(jì)算Al安全加入我們致謝報(bào)告中文版支持單位北京數(shù)安行科技有限公司(簡(jiǎn)稱:數(shù)安行)是一家數(shù)據(jù)安全廠商。公司主營(yíng)產(chǎn)品涵蓋數(shù)據(jù)分類分級(jí)、數(shù)據(jù)安全沙箱、下一代數(shù)據(jù)泄露防護(hù)、數(shù)據(jù)安全檢查、數(shù)據(jù)安全風(fēng)險(xiǎn)態(tài)勢(shì)感知、數(shù)據(jù)安全風(fēng)險(xiǎn)監(jiān)測(cè)與風(fēng)險(xiǎn)評(píng)估、數(shù)據(jù)合規(guī)與隱私保護(hù)、數(shù)據(jù)運(yùn)營(yíng)安全等,主要為政府、軍隊(duì)、企事業(yè)單位提供數(shù)據(jù)運(yùn)營(yíng)安全產(chǎn)品和服務(wù)。數(shù)安行以DataSecOps為理念,以AI人工智能技術(shù)為核心驅(qū)動(dòng),將數(shù)據(jù)安全左移,在數(shù)據(jù)處理的第一現(xiàn)場(chǎng)對(duì)數(shù)據(jù)采取安全措施,平衡業(yè)務(wù)與安全,打造以數(shù)據(jù)運(yùn)營(yíng)為核心的數(shù)據(jù)安全生態(tài)體系,助力數(shù)字化轉(zhuǎn)型,致力于讓用戶的數(shù)據(jù)安全地創(chuàng)造價(jià)值。公司核心團(tuán)隊(duì)擁有20余年產(chǎn)研和市場(chǎng)服務(wù)經(jīng)驗(yàn),技術(shù)積累雄厚,服務(wù)于能源、電力、金融、運(yùn)營(yíng)商、教育、高端制造、軟件與信息技術(shù)服務(wù)、互聯(lián)網(wǎng)、醫(yī)療、政府、軍隊(duì)軍工等各行業(yè)客戶。4報(bào)告英文版編寫專家主要作者CSA全球工作人員O2025云安全聯(lián)盟大中華區(qū)版權(quán)所有5安全聲明 8前瞻性聲明和人工智能的發(fā)展前景 8文檔摘要 9執(zhí)行摘要 范圍和適用性 1.生成式人工智能法律和監(jiān)管的重點(diǎn)領(lǐng)域 1.1數(shù)據(jù)隱私和安全 1.4歐盟人工智能法案(EUAIAct/EIAA) 22 2.如何應(yīng)對(duì)生成式人工智能的幻覺對(duì)數(shù)據(jù)隱私、安全和倫理的影響 2.1國(guó)土安全部政策聲明139-07對(duì)生成式人工智能的影響 2.2聯(lián)邦貿(mào)易委員會(huì)政策宣傳與研究指導(dǎo): 2.3美國(guó)白宮管理和預(yù)算辦公室(OMB)在聯(lián)邦機(jī)構(gòu)使用人工智能的治理、創(chuàng)新和風(fēng)險(xiǎn)管理的政策 2.4拜登總統(tǒng)關(guān)于安全、可靠和負(fù)責(zé)任地開發(fā)和使用人工智能的行政令403.非歧視與公平 413.1部分現(xiàn)行反歧視法律法規(guī) 3.2監(jiān)管方面的挑戰(zhàn) 3.3監(jiān)管重點(diǎn)和技術(shù) 3.4新興監(jiān)管框架、標(biāo)準(zhǔn)和指南 483.5安全、責(zé)任和問責(zé) 3.6知識(shí)產(chǎn)權(quán) 4.負(fù)責(zé)任人工智能的技術(shù)戰(zhàn)略、標(biāo)準(zhǔn)和最佳實(shí)踐 4.1公平與透明度 4.2安全與隱私 4.3魯棒性、可控性和合乎倫理的人工智能實(shí)踐 4.4組織如何利用這些標(biāo)準(zhǔn) 4.5負(fù)責(zé)任的生成式人工智能的技術(shù)保障(數(shù)據(jù)管理) 4.6案例研究 在實(shí)踐中展示透明度和問責(zé)制………………665.持續(xù)監(jiān)測(cè)與合規(guī) 6.管理生成式人工智能的法律與倫理考量 7.結(jié)論:填補(bǔ)人工智能治理空白,實(shí)現(xiàn)負(fù)責(zé)任的未來 安全聲明本文僅供參考,不構(gòu)成法律建議。本研究文件由云安全聯(lián)盟編寫,探討了當(dāng)前圍繞人工智能的監(jiān)管治理情況。雖然本文涉及各種法律和監(jiān)管框架,但必須強(qiáng)調(diào)的是,所提供的信息不適用于任何特定情況的法律指導(dǎo)。人工智能的監(jiān)管環(huán)境正在迅速演變,法律法規(guī)的解釋和應(yīng)用會(huì)因各種因素而存在很大差異,這些因素包括:●管轄范圍(國(guó)家或地區(qū))●具體的情景(如行業(yè)、應(yīng)用場(chǎng)景等)●具體的人工智能技術(shù)或應(yīng)用因此,云安全聯(lián)盟和本文作者強(qiáng)烈建議,如果有任何與人工智能開發(fā)、部署或使用相關(guān)的法律層面的問題或疑慮,應(yīng)單獨(dú)尋求法律顧問的意見。前瞻性聲明和人工智能的發(fā)展前景本文包含了一些可能具有前瞻性的陳述。為確定其適用性,我們鼓勵(lì)向相關(guān)的國(guó)家監(jiān)管機(jī)構(gòu)和法律顧問尋求指導(dǎo)。需要注意的是,這些陳述是作者和云安全聯(lián)盟基于當(dāng)前的知識(shí)和預(yù)期所做,受固有風(fēng)險(xiǎn)、不確定性和假設(shè)的影響,部分陳述可能與實(shí)際結(jié)果存在差異。以下是可能影響人工智能領(lǐng)域未來發(fā)展和相關(guān)監(jiān)管環(huán)境的一些重要因素,也是可能影響本文件中前瞻性陳述準(zhǔn)確性的因素所在:●技術(shù)的快速進(jìn)步:人工智能領(lǐng)域不斷發(fā)展,新的技術(shù)和應(yīng)用層出不窮,很難預(yù)測(cè)這些技術(shù)進(jìn)步的確切軌跡及其對(duì)人工智能監(jiān)管各方面的影響?!癖O(jiān)管框架的不確定性:對(duì)人工智能的監(jiān)管方法仍在開發(fā),不同管轄范圍內(nèi)對(duì)人工智能開發(fā)、部署和使用的具體規(guī)定可能存在較大差異,并可能隨著時(shí)間的推移而發(fā)生變化。8●新興的倫理考量:隨著人工智能應(yīng)用變得越來越復(fù)雜,可能會(huì)出現(xiàn)新的倫理考量,促使更多有關(guān)負(fù)責(zé)任的開發(fā)和使用這些技術(shù)的法規(guī)或指導(dǎo)原則出●經(jīng)濟(jì)和社會(huì)因素:整體經(jīng)濟(jì)環(huán)境和對(duì)人工智能的社會(huì)態(tài)度,可能會(huì)影響新技術(shù)的開發(fā)、采用及監(jiān)管環(huán)境。這些關(guān)于前瞻性的陳述僅反映作者和云安全聯(lián)盟本文件發(fā)布之日的觀點(diǎn),作者和云安全聯(lián)盟不承擔(dān)更新或修改本文檔中任何前瞻性陳述以反映未來事件或情況的任何責(zé)任。請(qǐng)讀者不要過度依賴這些陳述。文檔摘要本文圍繞人工智能和生成式人工智能(GenAI)的法律和監(jiān)管環(huán)境論述。主要強(qiáng)調(diào)了生成式人工智能在復(fù)雜多變的環(huán)境中面臨的挑戰(zhàn),這些挑戰(zhàn)源于生成式人工智能自身的多樣化應(yīng)用、全球監(jiān)管機(jī)構(gòu)采取的不同監(jiān)管方法,以及對(duì)現(xiàn)有規(guī)定的延遲適應(yīng)。本文旨在為各組織提供基本知識(shí),幫助其從根本上了解自身的現(xiàn)狀,并為他們?cè)诳焖僮兓呢?fù)責(zé)任、合規(guī)地使用人工智能方面的需求提供指導(dǎo)。本文探討了部分現(xiàn)行法規(guī),并闡述了在地區(qū)、國(guó)家和國(guó)際層面開發(fā)和部署負(fù)責(zé)任的人工智能的注意事項(xiàng)和最佳實(shí)踐。本文高度概括了當(dāng)前人工智能(包括生成式人工智能(GenAI))的法律和監(jiān)管情況。雖然內(nèi)容并非詳盡無遺,但對(duì)于組織來說,這是一個(gè)了解自身現(xiàn)狀并確定負(fù)責(zé)任和合規(guī)的使用生成式人工智能應(yīng)該考慮哪些關(guān)鍵因素的起點(diǎn)。由于技術(shù)的不斷進(jìn)步以及法律和政策環(huán)境的演變,提供一份完整的概述是具有挑戰(zhàn)性的。因此,我們建議將這些信息作為了解不斷演變的人工智能法規(guī)和監(jiān)管機(jī)構(gòu)的基礎(chǔ)。重要的是要意識(shí)到,人工智能法規(guī)來自全球各級(jí)政府和司法管轄區(qū)。此外,盡管數(shù)據(jù)隱私和反歧視法規(guī)等法律不是專門為人工智能設(shè)計(jì),但這些法律將決定人工智能的使用范圍和方式。例如,在美國(guó),人工智能將受到城市、州和聯(lián)邦法律、政府行為、行政令、自愿行業(yè)協(xié)議甚至普通法的監(jiān)管。9在準(zhǔn)備人工智能項(xiàng)目時(shí),需要考慮到人工智能法規(guī)的起源并不總是直觀的,因此需要細(xì)致分析。首個(gè)具有深遠(yuǎn)影響的法律框架是歐盟《人工智能法案》,因?yàn)樗U狭藗€(gè)人和企業(yè)的安全及基本權(quán)利。如果某些人工智能應(yīng)用干擾或威脅到公民權(quán)利,則會(huì)遭到禁止。如大語言模型等高風(fēng)險(xiǎn)人工智能系統(tǒng)可能會(huì)對(duì)健康、安全、基本權(quán)利、環(huán)境、民主和法治造成重大損害,預(yù)計(jì)將出臺(tái)相關(guān)法規(guī)加以監(jiān)管。執(zhí)行摘要人工智能正在迅速改變我們的世界,并且具有重塑社會(huì)基本結(jié)構(gòu)的巨大潛力。然而,這種變革力量也帶來一個(gè)嚴(yán)峻的挑戰(zhàn):當(dāng)前的法律和監(jiān)管環(huán)境很難跟上人工智能,尤其是生成式人工智能爆炸性增長(zhǎng)的步伐。本文旨在提供現(xiàn)有法律法規(guī)及其對(duì)人工智能開發(fā)、部署和使用影響的高層次概覽。我們的目標(biāo)是確定立法滯后的領(lǐng)域,并尋求實(shí)際的方法部署負(fù)責(zé)任的人工智能。當(dāng)前的環(huán)境缺乏完善的立法,在解決日益復(fù)雜的人工智能功能的潛在風(fēng)險(xiǎn)方面存在差距。這導(dǎo)致現(xiàn)有規(guī)定,如《通用數(shù)據(jù)保護(hù)條例(GDPR)》和《加州消費(fèi)者隱私法案(CCPA)》/《加州隱私權(quán)法案(CPRA)》,雖然為數(shù)據(jù)隱私提供了基礎(chǔ)保障,但并未針對(duì)人工智能開發(fā)的獨(dú)特挑戰(zhàn)提供具體的指導(dǎo),而且不足以滿足例外情況下的需求。隨著大型科技巨頭計(jì)劃向人工智能投資數(shù)千億,預(yù)計(jì)技術(shù)創(chuàng)新的步伐不會(huì)放緩,技術(shù)革新的快速步伐已經(jīng)超出了立法適應(yīng)的能力。一個(gè)令人擔(dān)憂的缺口正在出現(xiàn):生成式人工智能的廣泛使用,無論是個(gè)人還是專業(yè)用途,都伴隨著治理缺失的問題。惡意行為者已經(jīng)開始利用生成式人工智能執(zhí)行復(fù)雜的攻擊,公司也將生成式人工智能視為一種競(jìng)爭(zhēng)優(yōu)勢(shì),從而進(jìn)一步加快了生成式人工智能的應(yīng)用。盡管這種快速應(yīng)用令人興奮,但需要伴隨著負(fù)責(zé)任的人工智能開發(fā)實(shí)踐,而這些實(shí)踐不能抑制創(chuàng)新。理想的解決方案是營(yíng)造一個(gè)鼓勵(lì)負(fù)責(zé)任的、透明和可解釋的人工智能使用的全球環(huán)境,并輔以清晰實(shí)用的指導(dǎo)原則做支持。為了彌合人工智能的無限潛力與負(fù)責(zé)任開發(fā)需求之間的差距,我們需要一種三管齊下的合作方法:所有科技公司對(duì)負(fù)責(zé)任的人工智能做出承諾,政策制定者提供明確的指導(dǎo),立法機(jī)構(gòu)制定有效的法規(guī)。本文以立法和法規(guī)為重點(diǎn),開啟了關(guān)于人工智能治理的重要論述。它為涉足人工智能領(lǐng)域的從業(yè)者和企業(yè)提供了對(duì)當(dāng)前人工智能治理環(huán)境及其不足之處的基礎(chǔ)理解。旨在通過強(qiáng)調(diào)這些不足,促進(jìn)一場(chǎng)關(guān)于負(fù)責(zé)任人工智能開發(fā)和應(yīng)用所需法律框架的公開討論。人工智能領(lǐng)域的迅速擴(kuò)展,需要法律和監(jiān)管環(huán)境的不斷演變,以確保在保護(hù)個(gè)人和社會(huì)的同時(shí),負(fù)責(zé)任地發(fā)展、部署和創(chuàng)新。了解人工智能的道德和法律框架有助于組織實(shí)現(xiàn)三個(gè)關(guān)鍵目標(biāo):●建立信任和品牌聲譽(yù):通過展示透明、負(fù)責(zé)任的人工智能實(shí)踐,與利益相關(guān)者建立信任,并提升品牌聲譽(yù)?!窠档惋L(fēng)險(xiǎn):積極采用這些框架并利用基于風(fēng)險(xiǎn)的方法,有助于降低與不負(fù)責(zé)任的人工智能使用相關(guān)的潛在的法律、聲譽(yù)和財(cái)務(wù)風(fēng)險(xiǎn),從而保護(hù)組織和個(gè)人?!翊龠M(jìn)負(fù)責(zé)任的創(chuàng)新:通過堅(jiān)持最佳實(shí)踐、保持透明度、問責(zé)制和建立強(qiáng)大的治理結(jié)構(gòu),組織可以培育一種負(fù)責(zé)任的和安全的人工智能創(chuàng)新文化,確保人工智能在發(fā)展的同時(shí)對(duì)社會(huì)產(chǎn)生積極影響。通過多樣化的團(tuán)隊(duì)、全面的文檔記錄和人類監(jiān)督,負(fù)責(zé)任的人工智能將通過減輕偏見、及早發(fā)現(xiàn)問題以及與現(xiàn)實(shí)世界保持一致,增強(qiáng)模型表現(xiàn)。范圍和適用性由于人工智能,更具體地說是生成式人工智能(GenAI)本身具有多樣性,如何應(yīng)對(duì)復(fù)雜的法律環(huán)境就成為了一個(gè)巨大的挑戰(zhàn)。本文深入探討了圍繞人工智能的監(jiān)管環(huán)境,涵蓋了諸如生成逼真文本格式(代碼、腳本、文章)的深度學(xué)習(xí)模型、處理視覺內(nèi)容(面部識(shí)別、深度偽造)的計(jì)算機(jī)視覺應(yīng)用、穩(wěn)定擴(kuò)散(文本到圖像模型)以及在自主系統(tǒng)(自動(dòng)駕駛汽車、機(jī)器人)中使用的強(qiáng)化學(xué)習(xí)算法等多樣化系統(tǒng)。更廣泛的類別,如生成式對(duì)抗網(wǎng)絡(luò)和大語言模型等,是眾多生成式人工智能應(yīng)用的基礎(chǔ),要求在監(jiān)管中將其納入考慮。由于現(xiàn)行立法在適應(yīng)這一動(dòng)態(tài)環(huán)境方面面臨挑戰(zhàn),因此有必要采取細(xì)致入微的方法管理這一廣泛、快速發(fā)展的系統(tǒng)。由于競(jìng)爭(zhēng)壓力,快速發(fā)展的技術(shù)滲透到我們的生活和商業(yè)實(shí)踐中,但與此同時(shí),法律框架卻不完善且適應(yīng)緩慢,造成了一種嚴(yán)峻的局面。本文將探討:●最廣泛使用的現(xiàn)有法規(guī)如何參與解決生成式人工智能的特定領(lǐng)域問題。●制定新法規(guī)面臨的一些挑戰(zhàn)和機(jī)遇?!袷褂每山忉尩娜斯ぶ悄芗夹g(shù)制定負(fù)責(zé)任的人工智能原則的高級(jí)建議和最佳實(shí)踐。本文采用階段性的方法分析人工智能治理,重點(diǎn)關(guān)注以下幾個(gè)方面。12表1:治理領(lǐng)域范圍國(guó)家最高級(jí)別的政府機(jī)構(gòu)或聯(lián)邦政府的立法:國(guó)家層(例如,維持美國(guó)在人工智能領(lǐng)域的領(lǐng)導(dǎo)府)、韓國(guó)(科學(xué)技術(shù)信息通信部)、新加坡地位,以及關(guān)于安全、可靠和值得信賴的開發(fā)、印度的國(guó)家政策是“全民人工智能”與部署人工智能技術(shù)的行政令)●其他正在制定人工智能政策的國(guó)家(加拿(例如,2023年算法責(zé)任法案(提案)●歐盟:主要地區(qū)性法規(guī):國(guó)際組織:正在探索框架的有:●《加州消費(fèi)者隱私法案(CCPA)》,由《加州●經(jīng)濟(jì)合作與發(fā)展組織(關(guān)于人工智能的建隱私權(quán)法案(CPRA)》修訂●聯(lián)合國(guó)教科文組織(關(guān)于人工智能倫理的●全球人工智能合作伙伴關(guān)系(GPAI)匯集來自科學(xué)界、產(chǎn)業(yè)界、民間社會(huì)、政府、國(guó)際組織和學(xué)術(shù)界的專長(zhǎng),以促進(jìn)國(guó)際合作●ISO/IEC42001:2023(人工智能管理系統(tǒng)標(biāo)準(zhǔn))●OWASP大語言模型應(yīng)用的10大安全風(fēng)險(xiǎn)1.生成式人工智能法律和監(jiān)管的重點(diǎn)領(lǐng)域1.1數(shù)據(jù)隱私和安全生成式人工智能在數(shù)據(jù)隱私和安全領(lǐng)域存在獨(dú)特的挑戰(zhàn),能夠從大量數(shù)據(jù)中學(xué)習(xí),從而引發(fā)了人們對(duì)在整個(gè)人工智能開發(fā)和部署生命周期中如何收集、存儲(chǔ)、使用、共享和傳輸個(gè)人信息的關(guān)注。包括《通用數(shù)據(jù)保護(hù)條例(GDPR)》、《加州消費(fèi)者隱私法案(CCPA)》、《加州隱私權(quán)法案(CPRA)》和《醫(yī)療電子交換法案(HIPAA)》在內(nèi)的多項(xiàng)現(xiàn)行法律法規(guī),旨在保護(hù)個(gè)人隱私和數(shù)據(jù)安全,具體如下:1.2通用數(shù)據(jù)保護(hù)條例(GDPR)(歐盟)●適用范圍:《通用數(shù)據(jù)保護(hù)條例》適用于在歐洲經(jīng)濟(jì)區(qū)(EEA)內(nèi)處理個(gè)人數(shù)據(jù)的任何組織?!裰饕獥l款:O處理的合法依據(jù)、公平性和透明度:組織處理個(gè)人數(shù)據(jù)必須有合法依據(jù)(如用戶同意、正當(dāng)利益等)。它要求向個(gè)人明確提供關(guān)于數(shù)據(jù)收集和處理目的的具體的信息。O數(shù)據(jù)最小化:將個(gè)人數(shù)據(jù)的收集和保留限制在所述目的所規(guī)定的范圍內(nèi)。O數(shù)據(jù)主體的權(quán)利:授予個(gè)人對(duì)其個(gè)人數(shù)據(jù)的各種權(quán)利,包括訪問、更正、刪除和限制處理的權(quán)利。O安全措施:要求組織采取適當(dāng)?shù)募夹g(shù)和措施來保護(hù)個(gè)人數(shù)據(jù)免遭未經(jīng)授權(quán)的訪問、披露、更改或破壞。O自動(dòng)化個(gè)體決策制定,包括畫像:對(duì)于包括畫像的自動(dòng)化決策制定,必須征得數(shù)據(jù)主體的明確同意(《通用數(shù)據(jù)保護(hù)條例》第22條)?!裆墒饺斯ぶ悄艿摹锻ㄓ脭?shù)據(jù)保護(hù)條例》合規(guī)性:14歐盟《通用數(shù)據(jù)保護(hù)條例》要求在處理個(gè)人數(shù)據(jù)(包括用于人工智能系統(tǒng)的數(shù)據(jù))時(shí)必須征得數(shù)據(jù)主體同意。此外,數(shù)據(jù)保護(hù)的要求意味著系統(tǒng)必須遵守《通用數(shù)據(jù)保護(hù)條例》原則,如合法性、公平性、透明度、目的限制、數(shù)據(jù)最小化、準(zhǔn)確性、存儲(chǔ)限制、完整性和保密性?!駥?duì)訓(xùn)練數(shù)據(jù)和提示詞數(shù)據(jù)的限制:《通用數(shù)據(jù)保護(hù)條例》概述了以下處理數(shù)據(jù)的主要原則:O目的限制:數(shù)據(jù)的收集和使用只能用于特定、明確界定或兼容的目的。O必要性:只能收集和使用實(shí)現(xiàn)這些目的所必需的個(gè)人數(shù)據(jù)。O數(shù)據(jù)最小化:應(yīng)盡量減少收集和使用的個(gè)人數(shù)據(jù)量,只收集絕對(duì)必要的數(shù)據(jù)。O存儲(chǔ)時(shí)限:必須盡可能縮短個(gè)人數(shù)據(jù)的存儲(chǔ)時(shí)間,并且必須定期設(shè)定和審查存儲(chǔ)期限。訓(xùn)練數(shù)據(jù)(以及提示詞數(shù)據(jù),它們也可能成為“訓(xùn)練數(shù)據(jù)”),即只在實(shí)際需要的范圍內(nèi)收集和使用數(shù)據(jù),以達(dá)到特定的訓(xùn)練目標(biāo)?!裰橥猓骸锻ㄓ脭?shù)據(jù)保護(hù)條例》要求在收集和處理用于訓(xùn)練生成式人工智能模型的個(gè)人數(shù)據(jù)時(shí)獲得用戶的明確同意。這可以確保個(gè)人了解其數(shù)據(jù)將如何被使用(例如,用于模型訓(xùn)練或微調(diào)),并有權(quán)拒絕。人工智能開發(fā)者必須為那些數(shù)據(jù)被人工智能/機(jī)器學(xué)習(xí)系統(tǒng)處理的個(gè)人提供行使這些權(quán)利的便利?!裢该鞫龋簹W盟的個(gè)人對(duì)其個(gè)人數(shù)據(jù)享有訪問、更正、刪除、限制處理和數(shù)據(jù)可攜性的權(quán)利。組織在人工智能/機(jī)器學(xué)習(xí)系統(tǒng)中使用個(gè)人數(shù)據(jù)時(shí)必須保證其目的、法律依據(jù)和數(shù)據(jù)保留期限的透明,讓用戶了解他們的數(shù)據(jù)是如何貢獻(xiàn)到生成的輸出結(jié)果中的。數(shù)據(jù)安全:《通用數(shù)據(jù)保護(hù)條例》第25條規(guī)定,組織必須采取“隱私融入設(shè)計(jì)原則”和“默認(rèn)隱私保護(hù)”的方法,并實(shí)施適當(dāng)?shù)募夹g(shù)和組織措施,以確保基礎(chǔ)模型中使用的個(gè)人數(shù)據(jù)的安全,包括加密、訪問控制和數(shù)據(jù)泄露通知程序。此外,由于大語言模型是整個(gè)供應(yīng)鏈的一部分,保證其安全性需要特別關(guān)注對(duì)抗性攻擊、數(shù)據(jù)中毒和模型偏差等惡意技術(shù)?!褙?zé)任:組織對(duì)在啟用生成式人工智能的系統(tǒng)中使用個(gè)人數(shù)據(jù)負(fù)有責(zé)任,并必須證明其符合《通用數(shù)據(jù)保護(hù)條例》,這包括執(zhí)行數(shù)據(jù)保護(hù)影響評(píng)估和維護(hù)適當(dāng)?shù)挠涗??!駭?shù)據(jù)匿名化和假名化:雖然匿名化和假名化有助于降低隱私風(fēng)險(xiǎn),但在生成式人工智能的背景下,它們并不能每一次都完美應(yīng)對(duì),因?yàn)榧词故怯邢薜男畔⒁部捎糜谕评砩矸?。●生成式人工智能輸出的潛在危害:雖然《通用數(shù)據(jù)保護(hù)條例》看起來似乎只影響用于訓(xùn)練模型的數(shù)據(jù),但實(shí)際上該法規(guī)也適用于模型輸出。這包括處理意外生成的輸出和惡意使用深度偽造技術(shù),這些都可能損害個(gè)人聲譽(yù)和違反道德原則。所以制定明確的指導(dǎo)方針和保障措施對(duì)于確保負(fù)責(zé)任地開發(fā)和使用生成式人工智能、降低風(fēng)險(xiǎn)和保護(hù)個(gè)人免受潛在傷害至關(guān)重要。1.2.3個(gè)人權(quán)利和控制●訪問和更正權(quán):個(gè)人有權(quán)了解和訪問生成式人工智能使用的其個(gè)人數(shù)據(jù),并在數(shù)據(jù)不準(zhǔn)確或不完整時(shí)要求更正。這包括個(gè)人直接提供的信息和通過與生成式人工智能互動(dòng)交互而生成的數(shù)據(jù)。然而,與傳統(tǒng)數(shù)據(jù)庫不同的是,糾正人工智能訓(xùn)練數(shù)據(jù)具有挑戰(zhàn)性,因?yàn)槠鋽?shù)據(jù)規(guī)模龐大且相互關(guān)聯(lián),這可能需要重新訓(xùn)練整個(gè)模型,并可能導(dǎo)致意想不到的后果。迄今為止,糾正人工智能模型訓(xùn)練數(shù)據(jù)中已經(jīng)獲取的不準(zhǔn)確信息的可行性尚不明確。雖然16有關(guān)數(shù)據(jù)標(biāo)記和隱私保護(hù)技術(shù)的研究仍在進(jìn)行,但確保"更正權(quán)"仍然是一個(gè)開放性的挑戰(zhàn),應(yīng)持續(xù)監(jiān)督促進(jìn)對(duì)這一需求的研究?!駝h除權(quán)(被遺忘權(quán)):個(gè)人有權(quán)要求刪除其個(gè)人數(shù)據(jù),這可能會(huì)影響人工智能/機(jī)器學(xué)習(xí)系統(tǒng)模型的訓(xùn)練和使用方式。由于個(gè)人數(shù)據(jù)在訓(xùn)練后可能會(huì)深嵌于模型內(nèi)部復(fù)雜的表征中,因此落實(shí)這項(xiàng)權(quán)利對(duì)這些模型是一項(xiàng)獨(dú)特的挑戰(zhàn)。目前,從訓(xùn)練好的模型中移除特定數(shù)據(jù)點(diǎn)的技術(shù)可行性和倫理影響仍不明確,缺乏可靠的流程和既定的指導(dǎo)來處理此類請(qǐng)求,這就引發(fā)了如何平衡個(gè)人隱私與模型整體功能和社會(huì)利益這一關(guān)鍵問題?!穹磳?duì)權(quán):個(gè)人有權(quán)反對(duì)出于特定目的處理其個(gè)人數(shù)據(jù),包括在生成式人工智能的背景下。然而,在生成式人工智能的背景下行使這項(xiàng)權(quán)利面臨著獨(dú)特的挑戰(zhàn)。目前還沒有可靠的標(biāo)準(zhǔn)化流程可以在模型訓(xùn)練完成后將個(gè)人數(shù)據(jù)從訓(xùn)練集中刪除。此外,反對(duì)權(quán)可能只適用于特定的數(shù)據(jù)元素或特定的目的,而不一定適用于用于訓(xùn)練模型的所有信息,這可能會(huì)限制個(gè)人反對(duì)權(quán)的范圍。這凸顯了開發(fā)透明且負(fù)責(zé)任的生成式人工智能以尊重個(gè)人隱私權(quán)的必要性?!窈弦?guī)性:《通用數(shù)據(jù)保護(hù)條例》要求對(duì)數(shù)據(jù)處理活動(dòng)執(zhí)行數(shù)據(jù)隱私影響評(píng)估(DPIA),這也適用于人工智能系統(tǒng)的數(shù)據(jù)處理及其對(duì)數(shù)據(jù)主體造成的風(fēng)險(xiǎn)。在用于訓(xùn)練大型生成式模型的大數(shù)據(jù)集中識(shí)別個(gè)人數(shù)據(jù)非常困難,目前還不清楚歐盟將如何處理生成式人工智能中的《通用數(shù)據(jù)保護(hù)條例》合規(guī)性問題?!褡詣?dòng)化決策管理治理:《通用數(shù)據(jù)保護(hù)條例》第22條規(guī)定,個(gè)人有權(quán)反對(duì)對(duì)其具有法律影響或重大影響的對(duì)個(gè)人資料分析執(zhí)行的自動(dòng)化決策。這意味著個(gè)人有權(quán)選擇退出自動(dòng)化決策或?qū)ψ詣?dòng)決策做出的決定提出異議,尤其是當(dāng)自動(dòng)化決策可能引起偏見而對(duì)其生活產(chǎn)生重大影響的時(shí)候。因此,使用自動(dòng)化決策的公司必須有人工申訴審查流程。1.3《加州消費(fèi)者隱私法案》/《加州隱私權(quán)法案》(CCPA/CPRA)17●適用范圍:適用于在加州開展業(yè)務(wù)且符合其他要求(如全球年收入超過2500萬美元)的營(yíng)利性企業(yè)。該法案賦予加州居民了解收集其個(gè)人信息目的的權(quán)利,并有權(quán)要求刪除或更正信息以確保信息準(zhǔn)確性。企業(yè)必須將收集和處理個(gè)人信息的范圍限制在披露目的所必需的范圍內(nèi)?!都又菹M(fèi)者隱私法案》的適用范圍還包括依賴于這些數(shù)據(jù)的人工智能/機(jī)器學(xué)習(xí)系統(tǒng),要求企業(yè)確保這些系統(tǒng)在涉及加州居民個(gè)人信息的訓(xùn)練和輸出生成過程中遵守隱私要求。企業(yè)在利用加州居民的個(gè)人信息開發(fā)和部署生成式人工智能模型時(shí),必須絕對(duì)遵守《加州消費(fèi)者隱私法案》的義務(wù)。●主要條款:O知情權(quán):允許消費(fèi)者要求了解所收集的個(gè)人信息的類別和具體內(nèi)容。O刪除權(quán):賦予消費(fèi)者要求刪除企業(yè)收集的個(gè)人數(shù)據(jù)的權(quán)利。O退出權(quán):賦予消費(fèi)者拒絕其個(gè)人信息被出售的權(quán)利。注:《加州消費(fèi)者隱私法案》和《加州隱私權(quán)法案》對(duì)消費(fèi)者數(shù)據(jù)的定義術(shù)語,以確保與《加州消費(fèi)者隱私法案》的范圍保持一致。個(gè)人可識(shí)別信息通常指的是可以直接識(shí)別個(gè)人身份的具體數(shù)據(jù),如姓名或社會(huì)保險(xiǎn)號(hào)。然而,《加州消費(fèi)者隱私法案》對(duì)個(gè)人信息的定義涵蓋了更廣泛的數(shù)據(jù)內(nèi)容,包括瀏覽歷史記錄、IP地址或地理位置數(shù)據(jù)等,這些數(shù)據(jù)本身不足以識(shí)別個(gè)人身份,但在與其他信息結(jié)合后可用于識(shí)別個(gè)人身份。因此,“個(gè)人信息”更準(zhǔn)確地反映了《加州消費(fèi)者隱私法案》有關(guān)消費(fèi)者數(shù)據(jù)隱私的意圖。●生成式人工智能對(duì)《加州消費(fèi)者隱私法案》I《加州隱私權(quán)法案》合規(guī)性:雖然《加州消費(fèi)者隱私法案》/《加州隱私權(quán)法案》沒有直接針對(duì)生成式人工智能提出技術(shù)要求,但《加州消費(fèi)者隱私法案》/《加州隱私權(quán)法案》對(duì)個(gè)人數(shù)據(jù)權(quán)利的關(guān)注可能會(huì)給生成式人工智能帶來重大的數(shù)據(jù)管理挑戰(zhàn),需要生成式人工智能采取謹(jǐn)慎的做法確保自身的合規(guī)性,并注意可能影響模型的性能和功能。重要的是,《加州消費(fèi)者隱私法案》/《加州隱私權(quán)法案》只保護(hù)加州居民的個(gè)人數(shù)據(jù)。一些注意事項(xiàng)如下:181.3.1《加州消費(fèi)者隱私法案》/《加州隱私權(quán)法案》下的數(shù)據(jù)收集、存儲(chǔ)、使用和披露《加州消費(fèi)者隱私法案》/《加州隱私權(quán)法案》主要側(cè)重于監(jiān)管企業(yè)對(duì)加州居民個(gè)人信息的收集、使用和披露,包括用于訓(xùn)練人工智能/機(jī)器學(xué)習(xí)系統(tǒng)模型的數(shù)據(jù),以及由此產(chǎn)生的包含個(gè)人信息的輸出結(jié)果。加州居民有權(quán)根據(jù)《加州消費(fèi)者隱私法案》/《加州隱私權(quán)法案》訪問自己的個(gè)人信息,這項(xiàng)權(quán)利可能適用于用于訓(xùn)練模型的數(shù)據(jù),但需要注意區(qū)分包含個(gè)人信息的輸出與更通用的模型輸出。加州居民有權(quán)了解出于人工智能目的收集了他們哪些個(gè)人信息、收集的目的以及與之共享這些信息的第三方類別。雖然《加州消費(fèi)者隱私法案》/《加州隱私權(quán)法案》不一定要求披露具體的訓(xùn)練數(shù)據(jù)來源,但強(qiáng)調(diào)了透明度的重要性。對(duì)數(shù)據(jù)來源的追溯對(duì)于《加州消費(fèi)者隱私法案》/《加州隱私權(quán)法案》合規(guī)性至關(guān)重要,尤其是考慮到生成式人工智能通常使用龐大的數(shù)據(jù)集,復(fù)雜的數(shù)據(jù)來源追蹤對(duì)于滿足“訪問權(quán)”和“知情權(quán)”請(qǐng)求變得困難。強(qiáng)大的數(shù)據(jù)治理實(shí)踐、適當(dāng)?shù)挠涗浺约翱赡苁褂媚涿挠?xùn)練數(shù)據(jù)披露可有效應(yīng)對(duì)這些挑戰(zhàn)。1.3.2消費(fèi)者權(quán)利《加州消費(fèi)者隱私法案》/《加州隱私權(quán)法案》授予消費(fèi)者有關(guān)其個(gè)人信息的特定權(quán)利,包括訪問、刪除、更正其個(gè)人信息以及拒絕個(gè)人信息被出售的權(quán)●知情權(quán):要求披露為訓(xùn)練模型而收集和使用個(gè)人信息的詳情,包括說明用于訓(xùn)練的數(shù)據(jù)類別(如文本、圖像、音頻或姓名、位置等),確定個(gè)人信息的來源(如用戶互動(dòng)、購買/第三方數(shù)據(jù)集、社交媒體、公共記錄等),詳細(xì)說明個(gè)人信息的用途(如模型訓(xùn)練、性能評(píng)估等)?!裨L問權(quán):用戶可以要求訪問在訓(xùn)練數(shù)據(jù)中使用到的具體數(shù)據(jù)點(diǎn),訓(xùn)練過程可能會(huì)泄露可識(shí)別信息,需要在訓(xùn)練數(shù)據(jù)集中實(shí)施識(shí)別和隔離單個(gè)數(shù)據(jù)點(diǎn)的機(jī)制,如果采用匿名或聚合技術(shù),這在技術(shù)上可能具有挑戰(zhàn)性。19●刪除權(quán):用戶有權(quán)要求刪除用于訓(xùn)練的個(gè)人信息,這將對(duì)模型產(chǎn)生多方面影O數(shù)據(jù)刪除:這可能需要用剩余數(shù)據(jù)重新訓(xùn)練模型,從而可能影響模型的性能和適用范圍。O數(shù)據(jù)修改:根據(jù)訓(xùn)練過程的不同,可能需要對(duì)特定數(shù)據(jù)點(diǎn)執(zhí)行匿名處理或編輯,這可能會(huì)影響模型的準(zhǔn)確性和可解釋性。O知識(shí)移除:如何識(shí)別千億層深度神經(jīng)網(wǎng)絡(luò)中的已學(xué)知識(shí),并移除特定的信息呢?實(shí)際上,這意味著需要從頭開始重新訓(xùn)練大型語言模型,從而既不經(jīng)濟(jì),也不環(huán)保。從技術(shù)可行性角度看,在復(fù)雜的訓(xùn)練數(shù)據(jù)集中識(shí)別并移除單個(gè)數(shù)據(jù)點(diǎn)可能計(jì)算成本高、耗時(shí)長(zhǎng),甚至是對(duì)于高級(jí)人工智能系統(tǒng)(如大語言模型)來說有時(shí)根本不可能實(shí)現(xiàn)的。如何處理那些需要移除數(shù)據(jù)的訓(xùn)練模型這一問題至今仍然沒有答案。●拒絕出售權(quán):如果生成的人工智能輸出內(nèi)容(如“深度偽造技術(shù)”)被認(rèn)為符合《加州消費(fèi)者隱私法案》/《加州隱私權(quán)法案》規(guī)定的“個(gè)人信息”,用戶有權(quán)拒絕將這些信息出售或披露給第三方。這涉及在《加州消費(fèi)者隱私法案》框架下明確定義生成式人工智能輸出并對(duì)其分類,可能需要進(jìn)一步的澄清和法律解釋。1.3.3合規(guī)與執(zhí)行遵守《加州消費(fèi)者隱私法案》/《加州隱私權(quán)法案》主要涉及實(shí)施技術(shù)和程序性保障措施保護(hù)個(gè)人信息。加州隱私保護(hù)局(CPPA)是一個(gè)相對(duì)較新的機(jī)構(gòu),成立于2020年,目前仍在包括消費(fèi)者數(shù)據(jù)和隱私在內(nèi)的不同領(lǐng)域建立監(jiān)管規(guī)定。加州隱私保護(hù)局負(fù)責(zé)實(shí)施和執(zhí)行《加州隱私權(quán)法案》和《加州消費(fèi)者隱私法案》。雖然目前還沒有發(fā)布專門針對(duì)人工智能管理的具體法規(guī),但以上兩項(xiàng)重要進(jìn)展已經(jīng)涉及人工智能和生成式人工智能。201.3.4自動(dòng)化決策技術(shù)(ADMT)法規(guī)草案●該草案于2023年11月發(fā)布,重點(diǎn)關(guān)注負(fù)責(zé)任的使用自動(dòng)化決策技術(shù)(ADMT),其中包括用于面向消費(fèi)者決策的多種形式的人工智能,其性質(zhì)類似于《通用數(shù)據(jù)保護(hù)條例》第22條?!裨摬莅父攀隽藢?duì)企業(yè)使用自動(dòng)化決策技術(shù)的要求,例如:O使用前通知:使用自動(dòng)化決策技術(shù)做出影響消費(fèi)者的決策之前告知消費(fèi)者。O拒絕權(quán):允許消費(fèi)者選擇拒絕僅由自動(dòng)化決策技術(shù)做出的決定。O訪問和解釋權(quán):向消費(fèi)者提供有關(guān)如何使用自動(dòng)化決策技術(shù)做出關(guān)于他們的決策信息,并解釋這些決策是如何形成的。O風(fēng)險(xiǎn)評(píng)估:要求企業(yè)進(jìn)行風(fēng)險(xiǎn)評(píng)估,以識(shí)別和減輕使用自動(dòng)化決策技術(shù)可能帶來的的潛在危害,如偏見和歧視。雖然該規(guī)定沒有明確提及“生成式人工智能”,但它適用于任何用于對(duì)消費(fèi)者做出自動(dòng)化決策的人工智能技術(shù),以及企業(yè)在加州部署和使用生成式人工智能的方式。1.3.5加州關(guān)于生成式人工智能的行政令●2023年10月,加利福尼亞州州長(zhǎng)加文-紐森發(fā)布了一項(xiàng)行政令,成立了一個(gè)工作組,負(fù)責(zé)探索在州政府內(nèi)負(fù)責(zé)任地開發(fā)、使用和實(shí)施生成式人工智能?!裨撔姓顝?qiáng)調(diào)了生成式人工智能的潛在益處,但也承認(rèn)其潛在風(fēng)險(xiǎn),如虛假信息的傳播,強(qiáng)調(diào)了負(fù)責(zé)任的部署生成式人工智能的必要性?!裨摴ぷ鹘M的任務(wù)是就為加利福尼亞州州級(jí)機(jī)構(gòu)制定建議,包括但不限于O識(shí)別部署生成式人工智能的潛在益處和風(fēng)險(xiǎn)。O制定使用生成式人工智能的倫理原則。O實(shí)施保障措施以預(yù)防潛在危害。21雖然該行政令并不直接監(jiān)管私營(yíng)企業(yè),但它標(biāo)志著加州以積極主動(dòng)的方式了解并可能塑造生成式人工智能未來的發(fā)展和使用態(tài)勢(shì)。CPPA正在不斷發(fā)展以適應(yīng)生成式人工智能的復(fù)雜性,預(yù)計(jì)會(huì)有更多的合規(guī)要求。這強(qiáng)調(diào)了在促進(jìn)負(fù)責(zé)任地開發(fā)和部署生成式人工智能的同時(shí),持續(xù)努力應(yīng)對(duì)不斷變化的監(jiān)管環(huán)境的必要性。1.4歐盟人工智能法案(EUAlAct/EIAA)●適用范圍:EIAA適用于歐盟境內(nèi)參與人工智能系統(tǒng)開發(fā)、部署和使用的提供者、部署商、進(jìn)口商、經(jīng)銷商和其他運(yùn)營(yíng)商,不適用于軍事、國(guó)防或國(guó)家安全目的。它針對(duì)人工智能系統(tǒng)的開發(fā)者和使用者提出了一系列規(guī)則和要求,重點(diǎn)關(guān)注四個(gè)風(fēng)險(xiǎn)等級(jí):不可接受的風(fēng)險(xiǎn)、高風(fēng)險(xiǎn)、中風(fēng)險(xiǎn)和低風(fēng)險(xiǎn)。法案旨在確保對(duì)隱私和非歧視等基本權(quán)利的保護(hù),確保人工智能系統(tǒng)的安全性和透明度,及如何負(fù)責(zé)任的使用人工智能系統(tǒng)。該法案適用于那些人工智能系統(tǒng)是在歐盟市場(chǎng)上提供或使用,或者使用影響到歐盟境內(nèi)人們的運(yùn)營(yíng)商。法案涵蓋了包括生物識(shí)別、自動(dòng)駕駛汽車和關(guān)鍵基礎(chǔ)設(shè)施在內(nèi)的廣泛的人工智能應(yīng)用。●主要條款:O禁止行為(第5條):法案第5條概述了與人工智能系統(tǒng)有關(guān)的禁止行為。禁止這些行為是為了確保個(gè)人的權(quán)利和安全,防止不道德和有害地使用人工智能系統(tǒng)。歐盟將禁止被認(rèn)為具有不可接受風(fēng)險(xiǎn)的人工智能系統(tǒng),包括操縱人類行為的人工智能、社交評(píng)分系統(tǒng)以及用于執(zhí)法目的在公共場(chǎng)所使用“實(shí)時(shí)”遠(yuǎn)程生物識(shí)別系統(tǒng)。O基于風(fēng)險(xiǎn)的方法(第9條):EIAA第9條引入了基于風(fēng)險(xiǎn)的方法監(jiān)管歐盟內(nèi)的人工智能系統(tǒng),并平衡監(jiān)管與創(chuàng)新,確保人工智能系統(tǒng)安全可信,同時(shí)避免不必要的合規(guī)成本。人工智能系統(tǒng)被劃分為高風(fēng)險(xiǎn)、中風(fēng)險(xiǎn)和低風(fēng)險(xiǎn),監(jiān)管水平將根據(jù)其對(duì)個(gè)人構(gòu)成的潛在危害程度而有所不同。22■高風(fēng)險(xiǎn)人工智能系統(tǒng),如用于關(guān)鍵基礎(chǔ)設(shè)施的系統(tǒng),必須滿足嚴(yán)格的要求,通過審查,并在部署前獲得預(yù)先批準(zhǔn)。此類系統(tǒng)的提供者必須遵守最嚴(yán)格的法規(guī)規(guī)定,包括透明度和可解釋性、人類監(jiān)督和獨(dú)立驗(yàn)證。■中風(fēng)險(xiǎn)人工智能系統(tǒng)的風(fēng)險(xiǎn)較低,但仍必須遵守特定要求。這些系統(tǒng)的提供者必須確保它們符合相關(guān)的法律義務(wù)、透明度和可追溯性等規(guī)則?!龅惋L(fēng)險(xiǎn)人工智能系統(tǒng)對(duì)個(gè)人幾乎不構(gòu)成風(fēng)險(xiǎn)。這些系統(tǒng)不受相同監(jiān)管要求的約束,但仍應(yīng)遵守適用于人工智能系統(tǒng)的法律框架。O數(shù)據(jù)治理(第10條):第10條旨在確保人工智能系統(tǒng)對(duì)數(shù)據(jù)的使用應(yīng)透明、負(fù)責(zé),并尊重個(gè)人隱私和數(shù)據(jù)保護(hù)權(quán)利。它要求用于訓(xùn)練和支持人工智能系統(tǒng)的數(shù)據(jù)必須遵守《通用數(shù)據(jù)保護(hù)條例》和其他相關(guān)數(shù)據(jù)保護(hù)法律的規(guī)定。高風(fēng)險(xiǎn)人工智能系統(tǒng)的提供者必須確保用于訓(xùn)練和支持人工智能系統(tǒng)的數(shù)據(jù)是相關(guān)、可靠、無偏見和無差錯(cuò)的,還應(yīng)確保數(shù)據(jù)得到適當(dāng)記錄、標(biāo)記和注釋,以便監(jiān)測(cè)和審計(jì)系統(tǒng)的性能。此外,數(shù)據(jù)管理必須透明,被使用數(shù)據(jù)的個(gè)人必須知情并同意。O透明性和可解釋性(第13條):本條要求高風(fēng)險(xiǎn)人工智能系統(tǒng)必須具有透明性和可解釋性,解釋其運(yùn)作方式,并為用戶提供獲取文件的途徑,使個(gè)人了解其工作方式和所做的決定。人工智能模型必須保存適當(dāng)?shù)挠涗浐腿罩荆_??梢詫?duì)其審計(jì)。本條還規(guī)定了知情權(quán)和尋求人工干預(yù)的權(quán)利,以便對(duì)人工智能系統(tǒng)做出的決定提出質(zhì)疑,確保人工智能系統(tǒng)以完整、負(fù)責(zé)和透明的方式運(yùn)行。O人類監(jiān)督(第14條):人類監(jiān)督的目的是防止或最小化風(fēng)險(xiǎn),可通過內(nèi)置在系統(tǒng)中的措施或由部署者實(shí)施的措施實(shí)現(xiàn)。此外,人工智能系統(tǒng)的設(shè)計(jì)必須允許由人類操作員檢查。監(jiān)督系統(tǒng)的自然人應(yīng)能了解其功能、監(jiān)控其運(yùn)行、解釋其輸出并在必要時(shí)干預(yù)。對(duì)生物特征識(shí)別系統(tǒng)提出了具體要求。高風(fēng)險(xiǎn)人工智能系統(tǒng)將受到嚴(yán)格的義務(wù)約束,確保人為監(jiān)督,并設(shè)計(jì)為能有效的由自然人監(jiān)督。O獨(dú)立測(cè)試和驗(yàn)證(第57至63條):它要求高風(fēng)險(xiǎn)人工智能系統(tǒng)應(yīng)通過獨(dú)立測(cè)試和驗(yàn)證,確保安全性和可靠性。23O治理和認(rèn)證(第64至70條):歐盟將建立治理結(jié)構(gòu)和認(rèn)證框架,確保歐盟的人工智能系統(tǒng)符合規(guī)定的標(biāo)準(zhǔn)和條例。該法規(guī)建立了一個(gè)治理框架協(xié)調(diào)和支持國(guó)家層面和聯(lián)盟層面的法規(guī)實(shí)施。治理框架旨在協(xié)調(diào)和構(gòu)建聯(lián)盟層面的專業(yè)知識(shí),利用現(xiàn)有資源和專業(yè)知識(shí),并支持?jǐn)?shù)字單一市場(chǎng)。O罰則(第99條):本條規(guī)定了對(duì)違反條例規(guī)定的制裁、措施和處罰。它規(guī)定成員國(guó)必須制定適當(dāng)?shù)男姓蛩痉ǔ绦驁?zhí)行條例的規(guī)定。通過對(duì)違規(guī)行為處以重罰來遏制違規(guī)行為,以確保條例得到有效執(zhí)行。它旨在確保以負(fù)責(zé)任和合乎倫理的方式開發(fā)、部署和使用人工智能系統(tǒng),保護(hù)個(gè)人的權(quán)利和自由。EIAA規(guī)定,制裁和罰款根據(jù)違法行為的嚴(yán)重程度分級(jí),旨在確保處罰與違規(guī)行為造成的危害程度相稱。1.4.1生成式人工智能的EIAA合規(guī)性要求、義務(wù)和規(guī)定該法規(guī)旨在改善內(nèi)部市場(chǎng)的運(yùn)作,促進(jìn)以人為本、值得信賴的人工智能系統(tǒng)在歐盟的應(yīng)用。它規(guī)定了人工智能系統(tǒng)投放市場(chǎng)、投入使用和使用的統(tǒng)一規(guī)則,以及對(duì)高風(fēng)險(xiǎn)人工智能系統(tǒng)的特定要求和義務(wù)。它還包括某些人工智能的禁止行為,并為某些人工智能系統(tǒng)制定了透明度規(guī)則。此外,它還涉及市場(chǎng)監(jiān)管、市場(chǎng)監(jiān)督治理和執(zhí)法。高風(fēng)險(xiǎn)人工智能系統(tǒng)提供者的義務(wù):確保高風(fēng)險(xiǎn)人工智能系統(tǒng)符合概述的要求。●風(fēng)險(xiǎn)管理(第9條):提供者必須對(duì)高風(fēng)險(xiǎn)的人工智能系統(tǒng)執(zhí)行全面的風(fēng)險(xiǎn)評(píng)估,考慮對(duì)安全性、基本權(quán)利和系統(tǒng)預(yù)期用途的潛在風(fēng)險(xiǎn),必須為高風(fēng)險(xiǎn)的人工智能系統(tǒng)建立風(fēng)險(xiǎn)管理系統(tǒng),包括識(shí)別和分析已知和可預(yù)見的風(fēng)險(xiǎn),評(píng)估可能出現(xiàn)的風(fēng)險(xiǎn),并采取風(fēng)險(xiǎn)管理措施。風(fēng)險(xiǎn)管理措施的目的應(yīng)是消除或減少已識(shí)別的風(fēng)險(xiǎn),并應(yīng)對(duì)條例規(guī)定和要求的綜合影響。風(fēng)險(xiǎn)管理系統(tǒng)應(yīng)確保高風(fēng)險(xiǎn)人工智能系統(tǒng)的總體殘余風(fēng)險(xiǎn)被認(rèn)為是可接受的。24●數(shù)據(jù)質(zhì)量和管理(第10條):提供者必須確保高風(fēng)險(xiǎn)人工智能系統(tǒng)接受過高質(zhì)量、相關(guān)性和代表性數(shù)據(jù)集的訓(xùn)練。它們還必須實(shí)施適當(dāng)?shù)臄?shù)據(jù)管理措施,防止出現(xiàn)偏差以確保數(shù)據(jù)的準(zhǔn)確性。使用數(shù)據(jù)訓(xùn)練技術(shù)的高風(fēng)險(xiǎn)人工智能系統(tǒng)必須使用接受過高質(zhì)量的訓(xùn)練、驗(yàn)證和測(cè)試的數(shù)據(jù)集。必須實(shí)施設(shè)計(jì)選擇、數(shù)據(jù)收集過程、數(shù)據(jù)預(yù)處理操作等數(shù)據(jù)管理措施以解決偏差和數(shù)據(jù)缺口問題?!窦夹g(shù)文檔(第11條):提供者必須為高風(fēng)險(xiǎn)人工智能系統(tǒng)創(chuàng)建并維護(hù)準(zhǔn)確和最新的技術(shù)文檔。這些文件應(yīng)包括系統(tǒng)的設(shè)計(jì)、開發(fā)、配置和運(yùn)行信息。高風(fēng)險(xiǎn)人工智能系統(tǒng)的技術(shù)文檔必須編制并保持更新。這些文檔應(yīng)證明系統(tǒng)符合法規(guī)要求,并提供必要的信息供主管部門和通報(bào)機(jī)構(gòu)評(píng)估。應(yīng)為屬于歐盟統(tǒng)一立法范圍的高風(fēng)險(xiǎn)人工智能系統(tǒng)準(zhǔn)備一套技術(shù)文件,委員會(huì)可通過授權(quán)法案修訂技術(shù)文件要求。●記錄保存(第12條):高風(fēng)險(xiǎn)人工智能系統(tǒng)必須能夠在其整個(gè)生命周期內(nèi)自動(dòng)記錄事件(日志)。日志記錄功能應(yīng)能識(shí)別風(fēng)險(xiǎn)情況,便于上市后監(jiān)控,并監(jiān)測(cè)高風(fēng)險(xiǎn)人工智能系統(tǒng)的運(yùn)行?!裢该鞫群托畔⑻峁?第13條):提供者必須確保高風(fēng)險(xiǎn)人工智能系統(tǒng)的透明度,并向用戶提供關(guān)于系統(tǒng)功能和局限性的相關(guān)信息。高風(fēng)險(xiǎn)人工智能系統(tǒng)必須以透明的方式運(yùn)行,使部署者能夠正確理解和使用系統(tǒng)的輸出結(jié)果。使用說明應(yīng)包括提供者的相關(guān)信息、系統(tǒng)特點(diǎn)和能力、已知風(fēng)險(xiǎn)、解釋輸出的技術(shù)能力以及輸出的規(guī)定?!袢祟惐O(jiān)督和干預(yù)(第14條):提供者必須在高風(fēng)險(xiǎn)人工智能系統(tǒng)中納入適當(dāng)?shù)娜祟惐O(jiān)督和干預(yù)機(jī)制,這包括確保系統(tǒng)在必要時(shí)可被人工操作覆蓋或停止。高風(fēng)險(xiǎn)人工智能系統(tǒng)的設(shè)計(jì)必須允許自然人在系統(tǒng)使用期間有效監(jiān)督。人類監(jiān)督措施應(yīng)旨在預(yù)防風(fēng)險(xiǎn)或最小化風(fēng)險(xiǎn),并可集成到系統(tǒng)中或由部署者實(shí)施,被指派執(zhí)行人類監(jiān)督的自然人應(yīng)能夠了解系統(tǒng)的功能和局限性、檢測(cè)異常、解釋系統(tǒng)輸出并在必要時(shí)干預(yù)或覆蓋系統(tǒng)決策?!駵?zhǔn)確性、魯棒性和網(wǎng)絡(luò)安全(第15條):提供者必須確保高風(fēng)險(xiǎn)人工智能系統(tǒng)準(zhǔn)確、可靠且穩(wěn)健。應(yīng)盡量減少與系統(tǒng)性能相關(guān)的錯(cuò)誤和風(fēng)險(xiǎn),并采取必要措施解決準(zhǔn)確性和魯棒性問題。應(yīng)執(zhí)行安全風(fēng)險(xiǎn)評(píng)估,并結(jié)合系統(tǒng)的設(shè)計(jì)25實(shí)施必要的緩解措施。高風(fēng)險(xiǎn)人工智能系統(tǒng)必須執(zhí)行全面的風(fēng)險(xiǎn)評(píng)估,并遵守網(wǎng)絡(luò)安全標(biāo)準(zhǔn)。在使用語言模型時(shí),它們還應(yīng)達(dá)到適當(dāng)?shù)臏?zhǔn)確性、魯棒性和網(wǎng)絡(luò)安全水平??舍槍?duì)準(zhǔn)確性和魯棒性的技術(shù)方面制定基準(zhǔn)和衡量方法,應(yīng)在隨附的使用說明中聲明準(zhǔn)確度和相關(guān)衡量標(biāo)準(zhǔn)。●對(duì)某些人工智能系統(tǒng)的具體要求(第53和55條):該條例確定了對(duì)特定類型的高風(fēng)險(xiǎn)人工智能系統(tǒng)的特定要求,如生物特征識(shí)別系統(tǒng)、關(guān)鍵基礎(chǔ)設(shè)施中使用的系統(tǒng)、教育和職業(yè)培訓(xùn)中使用的系統(tǒng)、用于就業(yè)目的的系統(tǒng)以及執(zhí)法機(jī)關(guān)使用的系統(tǒng)。O在高風(fēng)險(xiǎn)人工智能系統(tǒng)應(yīng)在其包裝/文件上注明其名稱、注冊(cè)商號(hào)或注冊(cè)商標(biāo)以及聯(lián)系地址。O建立質(zhì)量管理系統(tǒng),確保符合法規(guī)要求。O保存文檔,包括技術(shù)文件、質(zhì)量管理體系文件、由認(rèn)證機(jī)構(gòu)批準(zhǔn)的變更、認(rèn)證機(jī)構(gòu)發(fā)布的決定以及歐盟符合性聲明。O將高風(fēng)險(xiǎn)人工智能系統(tǒng)生成的日志保存一段時(shí)間。O在將高風(fēng)險(xiǎn)人工智能系統(tǒng)投放市場(chǎng)或投入使用之前,執(zhí)行相關(guān)的合格評(píng)定程序。O制定歐盟合格聲明并貼上CE標(biāo)志,以表明符合法規(guī)要求。O遵守注冊(cè)義務(wù)。O采取必要的糾正措施并提供所需的信息。O應(yīng)國(guó)家主管部門的合理要求,證明高風(fēng)險(xiǎn)人工智能系統(tǒng)符合要求。O確保符合無障礙要求。進(jìn)口商義務(wù):●在將高風(fēng)險(xiǎn)人工智能系統(tǒng)投放市場(chǎng)之前,核實(shí)其是否符合要求?!翊_保高風(fēng)險(xiǎn)人工智能系統(tǒng)帶有符合要求的CE標(biāo)志,附有歐盟合格聲明和使用說明?!翊_保高風(fēng)險(xiǎn)人工智能系統(tǒng)得到妥善儲(chǔ)存和運(yùn)行?!窀接姓J(rèn)證機(jī)構(gòu)頒發(fā)的證書、使用說明和歐盟合格聲明的副本?!癜匆筇峁﹪?guó)家主管部門要求的必要信息和文件。26●與國(guó)家主管部門合作,降低高風(fēng)險(xiǎn)人工智能系統(tǒng)帶來的風(fēng)險(xiǎn)。經(jīng)銷商義務(wù):●核實(shí)高風(fēng)險(xiǎn)人工智能系統(tǒng)是否帶有CE標(biāo)志,是否附有歐盟合格聲明和使用說明?!褡们樵诎b/文件上注明其名稱、注冊(cè)商號(hào)或注冊(cè)商標(biāo)以及聯(lián)系地址。●確保儲(chǔ)存或運(yùn)行條件不會(huì)違反高風(fēng)險(xiǎn)人工智能系統(tǒng)的合規(guī)性?!駲z驗(yàn)是否具有認(rèn)證機(jī)構(gòu)頒發(fā)的證書、使用說明和歐盟合格聲明的副本?!癜匆筇峁﹪?guó)家主管部門要求的必要信息和文件?!衽c國(guó)家主管部門合作,降低高風(fēng)險(xiǎn)人工智能系統(tǒng)帶來的風(fēng)險(xiǎn)。促進(jìn)創(chuàng)新(第57條到63條)支持創(chuàng)新的措施如下:人工智能監(jiān)管沙箱:●成員國(guó)必須在國(guó)家層面建立人工智能監(jiān)管沙箱,這有助于在產(chǎn)品上市前開發(fā)、測(cè)試和驗(yàn)證創(chuàng)新型人工智能系統(tǒng)。●沙箱提供一個(gè)可控的環(huán)境,促進(jìn)創(chuàng)新并允許識(shí)別和降低風(fēng)險(xiǎn)?!衿淠繕?biāo)是提高法律確定性、支持最佳實(shí)踐的分享、促進(jìn)創(chuàng)新與競(jìng)爭(zhēng)力,有助于基于證據(jù)的法規(guī)學(xué)習(xí),并為中小和初創(chuàng)企業(yè)的人工智能系統(tǒng)進(jìn)入歐盟市場(chǎng)提供便利?!駠?guó)家主管部門對(duì)沙箱具有監(jiān)督權(quán),并必須確保與其他相關(guān)機(jī)構(gòu)的合作。人工智能沙箱中的個(gè)人數(shù)據(jù)處理:●為其他目的收集的個(gè)人數(shù)據(jù)被允許在人工智能監(jiān)管沙箱中處理的情況,僅包括以公共利益為目的的開發(fā)、訓(xùn)練和測(cè)試個(gè)人數(shù)據(jù)的人工智能系統(tǒng)。●必須滿足一定的條件以確保遵守?cái)?shù)據(jù)保護(hù)法規(guī),包括有效的監(jiān)督機(jī)制、數(shù)據(jù)主體權(quán)利的保障措施以及保護(hù)個(gè)人數(shù)據(jù)的適當(dāng)技術(shù)和組織措施。在真實(shí)環(huán)境中測(cè)試高風(fēng)險(xiǎn)人工智能系統(tǒng):27●高風(fēng)險(xiǎn)人工智能系統(tǒng)的提供者或潛在提供者可以在人工智能監(jiān)管沙箱之外的真實(shí)環(huán)境中測(cè)試?!袼麄儽仨氈贫ú⑾蚴袌?chǎng)監(jiān)督管理局提交一份真實(shí)環(huán)境測(cè)試計(jì)劃?!駵y(cè)試可以獨(dú)立進(jìn)行,也可以與潛在用戶合作完成。●聯(lián)盟或國(guó)家法律可能要求進(jìn)行倫理審查。指導(dǎo)和支持:●人工智能監(jiān)管沙箱內(nèi)的主管部門為參與者提供指導(dǎo)、監(jiān)督和支持。●引導(dǎo)提供者獲得預(yù)部署服務(wù),如法規(guī)實(shí)施指導(dǎo)、標(biāo)準(zhǔn)化和認(rèn)證?!駳W洲數(shù)據(jù)保護(hù)監(jiān)督員可專門為聯(lián)盟機(jī)構(gòu)、團(tuán)體、辦事處和機(jī)關(guān)建立一個(gè)人工智能監(jiān)管沙箱。管理與協(xié)調(diào):●該條例建立了一個(gè)管理框架,協(xié)調(diào)和支持在國(guó)家和聯(lián)盟層面實(shí)施人工智能條例。●人工智能辦公室由成員國(guó)代表組成,負(fù)責(zé)發(fā)展聯(lián)盟在人工智能方面的專業(yè)知識(shí)和能力,并支持人工智能法的實(shí)施。●設(shè)立委員會(huì)、科學(xué)小組和咨詢論壇,為法規(guī)實(shí)施提供意見、建議和專業(yè)知識(shí)?!駠?guó)家主管部門在委員會(huì)內(nèi)開展合作,并就人工智能監(jiān)管沙箱的進(jìn)展和結(jié)果提交年度報(bào)告?!裎瘑T會(huì)為人工智能監(jiān)管沙箱開發(fā)單一信息平臺(tái),并與國(guó)家主管部門協(xié)調(diào)。市場(chǎng)監(jiān)督與合規(guī):●由成員國(guó)指定的市場(chǎng)監(jiān)督機(jī)構(gòu)負(fù)責(zé)執(zhí)行該法規(guī)的要求和義務(wù)?!袼鼈兙哂袌?zhí)法權(quán),可以獨(dú)立公正地履行職責(zé),并協(xié)調(diào)聯(lián)合行動(dòng)和調(diào)查?!窨赏ㄟ^包括降低風(fēng)險(xiǎn)、限制市場(chǎng)供應(yīng)、撤銷或召回人工智能模型等措施來強(qiáng)制執(zhí)行合規(guī)。數(shù)據(jù)保護(hù)機(jī)構(gòu)的參與:●國(guó)家數(shù)據(jù)保護(hù)機(jī)構(gòu)和其他具有監(jiān)督職能的相關(guān)國(guó)家公共機(jī)關(guān)或機(jī)構(gòu)有責(zé)任根據(jù)保護(hù)基本權(quán)利的聯(lián)盟法律對(duì)人工智能系統(tǒng)進(jìn)行監(jiān)督。28●他們可以查閱根據(jù)本條例創(chuàng)建的相關(guān)文件。與金融服務(wù)機(jī)構(gòu)的合作:●負(fù)責(zé)監(jiān)督歐盟金融服務(wù)法的主管機(jī)關(guān)被指定為監(jiān)督人工智能法規(guī)實(shí)施的主管機(jī)關(guān),包括對(duì)受監(jiān)管和監(jiān)督的金融機(jī)構(gòu)提供或使用的人工智能系統(tǒng)有關(guān)的市場(chǎng)監(jiān)督活動(dòng)?!裎瘑T會(huì)與其合作,確保義務(wù)的一致應(yīng)用和執(zhí)行。促進(jìn)符合道德和值得信賴的人工智能:●鼓勵(lì)未被歸類為高風(fēng)險(xiǎn)的人工智能系統(tǒng)的提供者制定行為準(zhǔn)則,自愿適用于高風(fēng)險(xiǎn)人工智能系統(tǒng)的部分或全部強(qiáng)制性要求。●人工智能辦公室可邀請(qǐng)所有通用型人工智能模型的提供者遵守行為守透明報(bào)告和文件:●要求提供者建立一個(gè)上市后的監(jiān)測(cè)系統(tǒng),分析其人工智能系統(tǒng)的使用情況和風(fēng)險(xiǎn)?!癖仨毾蛴嘘P(guān)部門報(bào)告因使用其人工智能系統(tǒng)而導(dǎo)致的嚴(yán)重事件?!袢斯ぶ悄鼙O(jiān)管沙箱的技術(shù)文件和退出報(bào)告可用于證明其符合法規(guī)要求?!裎瘑T會(huì)和理事會(huì)可查閱相關(guān)任務(wù)的退出報(bào)告。人工智能被禁止的行為●嚴(yán)重扭曲人類行為:禁止在市場(chǎng)上投放、投入使用或使用以嚴(yán)重扭曲人類行為為目的或效果的人工智能系統(tǒng),因?yàn)檫@會(huì)對(duì)身體健康、心理健康或經(jīng)濟(jì)利益造成重大損害。這包括使用潛意識(shí)成分或其他操縱性或欺騙性技術(shù)破壞和損害個(gè)人對(duì)決策過程的自主性和自由權(quán)選擇。●基于生物特征對(duì)敏感個(gè)人信息分類:禁止使用基于自然人的生物識(shí)別數(shù)據(jù)的分類系統(tǒng)推斷敏感的個(gè)人信息,如政治觀點(diǎn)、工會(huì)成員身份、宗教或哲學(xué)信仰、種族、性生活或性取向。29●提供社會(huì)評(píng)分的人工智能系統(tǒng):根據(jù)自然人的社會(huì)行為、已知的、推斷出的或預(yù)測(cè)的個(gè)人特征或性格特征來評(píng)估或分類自然人的人工智能系統(tǒng),可能會(huì)導(dǎo)致歧視性結(jié)果和對(duì)某些群體的排斥。使用此類人工智能系統(tǒng)執(zhí)行社會(huì)評(píng)分是禁止的,因?yàn)檫@類人工智能系統(tǒng)會(huì)導(dǎo)致個(gè)人或與數(shù)據(jù)生成或收集的背景無關(guān)的群體受到不利或不平等對(duì)待?!裼糜趫?zhí)法的實(shí)時(shí)遠(yuǎn)程生物特征識(shí)別:以執(zhí)法為目的在公共場(chǎng)所對(duì)個(gè)人執(zhí)行實(shí)時(shí)遠(yuǎn)程生物特征識(shí)別被認(rèn)為具有侵?jǐn)_性,可能會(huì)影響個(gè)人的私生活。這種做法是被禁止的,除非是在嚴(yán)格必要且為了實(shí)現(xiàn)重大公共利益的情況下,如搜尋失蹤人員、生命或人身安全受到威脅,或識(shí)別特定嚴(yán)重刑事犯罪的作案者或嫌疑人。.合規(guī)、違規(guī)與處罰該條例提供了各種術(shù)語的定義,并規(guī)定了其適用范圍。它強(qiáng)調(diào)了在人工智能系統(tǒng)方面保護(hù)個(gè)人數(shù)據(jù)、隱私和機(jī)密的重要性。它還包括對(duì)違規(guī)行為的處罰以及對(duì)受影響者的補(bǔ)救措施。此外,它還允許未來評(píng)估和審查該法規(guī),并將實(shí)施權(quán)力下放給歐盟委員會(huì),規(guī)定在生效后的特定時(shí)間內(nèi)適用。合規(guī)規(guī)定:●通用型人工智能模型的提供者必須采取必要措施,在條例生效之日起36個(gè)月內(nèi)履行條例規(guī)定的義務(wù)?!窀唢L(fēng)險(xiǎn)人工智能系統(tǒng)的運(yùn)營(yíng)商,如果在其投放市場(chǎng)或投入使用之前(即條例生效之日起24個(gè)月之前)已經(jīng)使用這些系統(tǒng),則只有在需要重大修改設(shè)計(jì)的情況下,才須遵守條例的要求。守條例的要求。違規(guī)處罰:EIAA規(guī)定違規(guī)罰款遵循分級(jí)制度:C2025云安全聯(lián)盟大中華區(qū)版權(quán)所有30●對(duì)于向認(rèn)證機(jī)構(gòu)或國(guó)家主管部門提供不正確、不完整或誤導(dǎo)性信息的違規(guī)行為,最高可處以750萬歐元的行政罰款,如果違規(guī)者是企業(yè),則最高可處以其上一財(cái)政年度全球年?duì)I業(yè)總額1%的行政罰款,以數(shù)額較高者為準(zhǔn)。●對(duì)于未獲得高風(fēng)險(xiǎn)人工智能系統(tǒng)認(rèn)證、未遵守透明度或監(jiān)督要求(如風(fēng)險(xiǎn)管理)、以及未履行提供者、授權(quán)代表、進(jìn)口商、經(jīng)銷商或使用者義務(wù)等違規(guī)行為,擬議罰款最高達(dá)1500萬歐元,或其全球年?duì)I業(yè)額的3%,以較高者為準(zhǔn):O根據(jù)第16條規(guī)定的提供者的義務(wù)。O根據(jù)第22條規(guī)定的授權(quán)代表的義務(wù)。O根據(jù)第23條規(guī)定的進(jìn)口商的義務(wù)。O根據(jù)第24條規(guī)定的經(jīng)銷商的義務(wù)。O根據(jù)第26條規(guī)定的部署者的義務(wù)。O根據(jù)第31、33(1)、33(3)、33(4)或34條對(duì)被通知機(jī)構(gòu)的要求和義務(wù)。O根據(jù)第50條規(guī)定的提供者和用戶的透明度義務(wù)?!駥?duì)于使用被認(rèn)為構(gòu)成不可接受風(fēng)險(xiǎn)的人工智能系統(tǒng),或不遵守條例第5條所列的人工智能行為實(shí)踐的違規(guī)行為,擬議的行政罰款最高可達(dá)3500萬歐元,或其全球年?duì)I業(yè)額的7%,以較高者為準(zhǔn)。EIAA要求,任何行政罰款都應(yīng)考慮具體情況的所有相關(guān)因素,這包括違法行為的性質(zhì)、嚴(yán)重程度和持續(xù)時(shí)間及其后果、受影響人數(shù)以及他們?cè)馐艿膿p害,罰款數(shù)額應(yīng)根據(jù)人工智能系統(tǒng)的目的加以評(píng)估。此外,還應(yīng)考慮的因素包括是否已由其他主管部門處以行政罰款、運(yùn)營(yíng)商的規(guī)模、年?duì)I業(yè)額和市場(chǎng)份額等。其他決定因素還包括違規(guī)行為帶來的經(jīng)濟(jì)利益或損失、與國(guó)家主管部門的合作程度、運(yùn)營(yíng)商的責(zé)任、違規(guī)行為是如何被發(fā)現(xiàn)的、運(yùn)營(yíng)商是否存在疏忽或故意的情況,以及采取的任何為減輕受影響者所受損害的行動(dòng)。它還規(guī)定,在訴訟中應(yīng)充分尊重當(dāng)事人的辯護(hù)權(quán),并賦予他們查閱相關(guān)信息的權(quán)利,但要考慮到個(gè)人或企業(yè)保護(hù)其個(gè)人數(shù)據(jù)或商業(yè)秘密的合法權(quán)益。1.5《醫(yī)療電子交換法案(HIPAA)》31《醫(yī)療電子交換法案(HIPAA)》是美國(guó)1996年頒布的一部聯(lián)邦法律,主要以其關(guān)于醫(yī)療保健數(shù)據(jù)隱私和安全的規(guī)定而聞名?!襁m用范圍:《醫(yī)療電子交換法案》適用于“承保實(shí)體”,包括處理個(gè)人受保護(hù)健康信息(PHI)的醫(yī)療服務(wù)提供者、健康計(jì)劃和醫(yī)療保健結(jié)算中心。●主要條款:O最小必要標(biāo)準(zhǔn):要求承保實(shí)體僅使用和披露實(shí)現(xiàn)預(yù)期目的所需的最小量的受保護(hù)的健康信息。O管理、技術(shù)和物理保障措施:要求實(shí)施適當(dāng)?shù)谋U洗胧?,以保護(hù)受保護(hù)的健康信息的機(jī)密性、完整性和可用性。O患者權(quán)利:賦予個(gè)人其受保護(hù)的健康信息的訪問、修改和要求說明披露情況的權(quán)利。1.5.1生成式人工智能的《醫(yī)療電子交換法案》合規(guī)性1.數(shù)據(jù)隱私與安全:●數(shù)據(jù)保護(hù)要求:《醫(yī)療電子交換法案》嚴(yán)格的數(shù)據(jù)保護(hù)標(biāo)準(zhǔn)已在整個(gè)技術(shù)領(lǐng)域內(nèi)確立,適用于所有技術(shù)類型或目的數(shù)據(jù)使用(例如,強(qiáng)大的加密在整個(gè)開發(fā)和部署過程中都是強(qiáng)制性的,以保護(hù)受保護(hù)的健康信息)。然而,生成式人工智能領(lǐng)域的利益相關(guān)者必須將重點(diǎn)轉(zhuǎn)移到理解和實(shí)施在生成式人工智能操作和處理中應(yīng)用現(xiàn)有原則的具體細(xì)微差別上。雖然既定規(guī)則不需要重塑,但要使其適應(yīng)這種新情況,就必須認(rèn)真關(guān)注生成式人工智能帶來的獨(dú)特挑戰(zhàn)?!裼?xùn)練數(shù)據(jù)的限制:《醫(yī)療電子交換法案》限制訪問和共享受保護(hù)的健康信息,這可能會(huì)限制用于訓(xùn)練生成式人工智能模型以供醫(yī)療保健應(yīng)用的醫(yī)療數(shù)據(jù)量。跟蹤訓(xùn)練數(shù)據(jù)的來源和合規(guī)性對(duì)于確保生成的輸出是否會(huì)繼承隱私問題至關(guān)重要。這可能會(huì)使診斷、治療預(yù)測(cè)和個(gè)性化醫(yī)療等領(lǐng)域的開發(fā)和準(zhǔn)確性變得復(fù)雜,并限制人工智能模型在醫(yī)療應(yīng)用中的有效性和通用性?!袢?biāo)識(shí)化要求:即使是從受保護(hù)的健康信息訓(xùn)練的生成式人工智能生成的去標(biāo)識(shí)化輸出也可能通過微妙的模式、相關(guān)或高級(jí)技術(shù)重新標(biāo)識(shí),從而引發(fā)32隱私問題并可能違反《醫(yī)療電子交換法案》。雖然匿名化和假名化可以掩蓋身份,但在生成式人工智能的背景下,在模型內(nèi)與其他數(shù)據(jù)源結(jié)合時(shí),往往無法阻止數(shù)據(jù)被重新識(shí)別。這就需要采用強(qiáng)大的隱私保護(hù)方法(如差分隱私、聯(lián)邦學(xué)習(xí)等)有效保護(hù)個(gè)人身份?!衲P凸蚕硐拗疲河捎陔[私問題,訓(xùn)練有受保護(hù)的健康信息上的生成式人工智能模型之間的共享也受到限制,這阻礙了該領(lǐng)域的合作與進(jìn)步?!駠?yán)格的訪問控制、審計(jì)和追蹤:《醫(yī)療電子交換法案》要求對(duì)受保護(hù)的健康信息的訪問和使用進(jìn)行嚴(yán)格的審計(jì)和追蹤。這將延伸到生成式人工智能系統(tǒng),需要具備強(qiáng)大的日志記錄和監(jiān)控機(jī)制,以確保整個(gè)供應(yīng)鏈符合《醫(yī)療電子交換法案》的規(guī)定?!駥?duì)訓(xùn)練數(shù)據(jù)的限制:如上所述,《醫(yī)療電子交換法案》限制了對(duì)受保護(hù)的健康信息的訪問和共享,這可能會(huì)限制生成式人工智能模型用于訓(xùn)練醫(yī)療保健的數(shù)據(jù)量。就模型訓(xùn)練而言,限制使用多樣性和全面的醫(yī)療保健數(shù)據(jù)集訓(xùn)練模型的能力可能會(huì)導(dǎo)致輸出結(jié)果有偏差或不準(zhǔn)確。實(shí)施差分隱私或其他匿名化技術(shù)可能有助于保護(hù)患者隱私,同時(shí)仍能為訓(xùn)練提供一定程度的數(shù)據(jù)效用?!窆蚕砗团断拗疲汗蚕砘蚺栋鼙Wo(hù)的健康信息的生成內(nèi)容受到嚴(yán)格限制,即使是匿名的,也可能會(huì)限制使用生成式人工智能分享醫(yī)學(xué)見解或進(jìn)行研究合作的能力,因此需要謹(jǐn)慎設(shè)計(jì)和實(shí)施?!裣拗粕墒鼙Wo(hù)的健康信息:生成式人工智能不能直接輸出任何可能被視為受保護(hù)的健康信息的數(shù)據(jù),即使是用于生成訓(xùn)練或測(cè)試目的的合成醫(yī)療記錄等,也要遵守這一規(guī)定?!裣掠问褂孟拗疲焊鶕?jù)受保護(hù)的健康信息訓(xùn)練的生成式人工智能模型不得用于可能暴露受保護(hù)的健康信息的下游應(yīng)用,即使模型本身并不直接輸出受保護(hù)的健康信息?!衲P偷耐该鞫群涂山忉屝裕毫私馍墒饺斯ぶ悄苣P腿绾蔚贸銎漭敵鰧?duì)于確保它不會(huì)無意中披露受保護(hù)的健康信息至關(guān)重要,這就需要可解釋的模型和清晰的推理說明。確保人工智能生成的醫(yī)療結(jié)果的透明度和可解釋性對(duì)于建立信任和遵守《醫(yī)療電子交換法案》的“解釋權(quán)”規(guī)定至關(guān)重要。3.《醫(yī)療電子交換法案》法規(guī)可能還要求:●對(duì)輸出結(jié)果進(jìn)行仔細(xì)審查和持續(xù)監(jiān)控:所有由受保護(hù)的健康信息或包含受保護(hù)的健康信息訓(xùn)練的生成式人工智能模型生成的輸出結(jié)果都必須經(jīng)過徹底審查,以確保它們不包含任何可識(shí)別信息或有可能重新識(shí)別個(gè)體的信息,這自然會(huì)增加開發(fā)時(shí)間和對(duì)模型輸出持續(xù)監(jiān)控的復(fù)雜程度?!窕颊咄夂褪跈?quán):使用生成式人工智能執(zhí)行診斷或治療建議等任務(wù)需要獲得患者的明確同意和授權(quán),即使這可能會(huì)增加輸入或輸出工作流程的復(fù)雜程●審計(jì)與合規(guī):使用帶有受保護(hù)的健康信息的生成式人工智能的組織必須實(shí)施強(qiáng)大的審計(jì)和合規(guī)措施,以確保遵守適用于所有其他受《醫(yī)療電子交換法案》監(jiān)管系統(tǒng)的《醫(yī)療電子交換法案》法規(guī)?!耧L(fēng)險(xiǎn)評(píng)估和緩解計(jì)劃:生成式人工智能利益相關(guān)者必須優(yōu)先考慮定期執(zhí)行風(fēng)險(xiǎn)評(píng)估,以保護(hù)患者隱私并維持《醫(yī)療電子交換法案》合規(guī)性。這些評(píng)估應(yīng)全面評(píng)估人工智能/機(jī)器學(xué)習(xí)系統(tǒng),以便識(shí)別潛在的隱私違規(guī)行為并實(shí)施有針對(duì)性的緩解策略?!夺t(yī)療電子交換法案》法規(guī)對(duì)生成式人工智能在醫(yī)療保健領(lǐng)域的應(yīng)用提出了重大挑戰(zhàn)。這些挑戰(zhàn)要求對(duì)人工智能系統(tǒng)進(jìn)行全面的了解、實(shí)施和持續(xù)監(jiān)控。通過精心設(shè)計(jì)這些人工智能系統(tǒng)、采用強(qiáng)大的隱私保護(hù)技術(shù)并嚴(yán)格遵守法規(guī),我們可以解鎖生成式人工智能在改善醫(yī)療保健方面的潛力,同時(shí)保護(hù)患者隱私并確保負(fù)責(zé)任和合規(guī)地使用。在這個(gè)新興領(lǐng)域里,平衡創(chuàng)新與患者隱私仍然是一個(gè)關(guān)鍵挑戰(zhàn)。34監(jiān)管環(huán)境需要利益相關(guān)者不斷調(diào)整適應(yīng),以確保符合《醫(yī)療電子交換法案》和其他相關(guān)法規(guī)不斷演變的解釋,尤其是針對(duì)生成式人工智能系統(tǒng)。C2025云安全聯(lián)盟大中華區(qū)版權(quán)所有352.如何應(yīng)對(duì)生成式人工智能的幻覺對(duì)數(shù)據(jù)隱私、安全和倫理的影響幻覺是指人工智能系統(tǒng)根據(jù)其所訓(xùn)練的模式和數(shù)據(jù)生成逼真但與事實(shí)不符或捏造的輸出,如圖像、視頻或文本。這些幻覺引起了人們對(duì)關(guān)于數(shù)據(jù)隱私和安全相關(guān)立法和法規(guī)的極大關(guān)注。生成式人工智能幻覺影響的一個(gè)關(guān)鍵領(lǐng)域是數(shù)據(jù)隱私。當(dāng)生成式人工智能模型被輸入敏感數(shù)據(jù)時(shí),有可能產(chǎn)生無意中泄露個(gè)人或組織的私密信息,這給一些監(jiān)管框架(如《通用數(shù)據(jù)保護(hù)條例》或《加州消費(fèi)者隱私法案》/《加州隱私權(quán)法案》)帶來了巨大挑戰(zhàn),因?yàn)檫@些法規(guī)要求采取嚴(yán)格措施保護(hù)個(gè)人數(shù)據(jù)免遭未經(jīng)授權(quán)的訪問或披露。人工智能生成內(nèi)容的出現(xiàn)模糊了真實(shí)信息與捏造信息之間的界限,使有效執(zhí)行數(shù)據(jù)隱私法的工作變得更復(fù)雜。生成式人工智能的幻覺還為監(jiān)管環(huán)境帶來了安全風(fēng)險(xiǎn)。惡意行為者可能會(huì)利用人工智能生成的內(nèi)容,如捏造的圖像或文本,欺騙或操縱個(gè)人。這對(duì)數(shù)據(jù)系統(tǒng)的完整性和安全性構(gòu)成了直接威脅,要求監(jiān)管機(jī)構(gòu)調(diào)整現(xiàn)有的網(wǎng)絡(luò)安全法規(guī),以應(yīng)對(duì)人工智能生成內(nèi)容帶來的獨(dú)特挑戰(zhàn)。隨著生成式人工智能技術(shù)的發(fā)展和模型能力的進(jìn)步,確保符合安全標(biāo)準(zhǔn)可能會(huì)變得越來越復(fù)雜,尤其是在生成輸出的真實(shí)性仍然不確定的情況下。政策制定者和監(jiān)管者在努力治理生成式人工智能的同時(shí),還必須面對(duì)幻覺帶來的倫理影響。除了遵守法律之外,倫理考量對(duì)于制定生成式人工智能治理的監(jiān)管框架也至關(guān)重要。圍繞負(fù)責(zé)任地開發(fā)和使用生成式人工智能模型的問題,包括幻覺內(nèi)容對(duì)個(gè)人權(quán)利、自主性和福祉的潛在影響,都需要仔細(xì)斟酌。監(jiān)管舉措必須在促進(jìn)創(chuàng)新和維護(hù)社會(huì)價(jià)值觀之間取得平衡,確保生成式人工智能治理框架優(yōu)先考慮透明度、問責(zé)制和包容性等倫理原則。要解決人工智能產(chǎn)生幻覺的問題,必須持續(xù)評(píng)估人工智能的輸出結(jié)果,從多個(gè)可信來源核實(shí)信息,并在評(píng)估內(nèi)容的準(zhǔn)確性問題上采用人類判斷。此外,提供明確的提示和使用精心收集的訓(xùn)練數(shù)據(jù)可以從一開始就降低出現(xiàn)幻覺的可能性。36生成式人工智能的幻覺對(duì)人工智能治理的現(xiàn)有立法和監(jiān)管框架帶來了挑戰(zhàn),特別是在數(shù)據(jù)隱私、安全和倫理等方面。應(yīng)對(duì)這些挑戰(zhàn)需要政策制定者、監(jiān)管機(jī)構(gòu)、行業(yè)利益相關(guān)者和倫理學(xué)家通力合作,共同制定全面的治理機(jī)制,有效管理與生成式人工智能相關(guān)的風(fēng)險(xiǎn)和機(jī)遇。2.1國(guó)土安全部政策聲明139-07對(duì)生成式人工智能的影響●數(shù)據(jù)輸入:禁止將美國(guó)國(guó)土安全部(DHS)有關(guān)個(gè)人的數(shù)據(jù)(無論其是否為個(gè)人身份信息或匿名信息)、社交媒體內(nèi)容或任何僅供官方使用的敏感但非機(jī)密信息(現(xiàn)稱為“受控非密信息(CUI)”),或機(jī)密信息輸入到商業(yè)生成式人工智能工具中?!駭?shù)據(jù)保留:在工具中選擇限制數(shù)據(jù)保留的選項(xiàng),并選擇拒絕將輸入數(shù)據(jù)用于進(jìn)一步訓(xùn)練模型。●輸出審查和使用:確保使用這些工具生成或修改的所有內(nèi)容在用于任何官方用途之前,特別是在與公眾互動(dòng)時(shí),先由適當(dāng)?shù)念I(lǐng)域的專家審查準(zhǔn)確性、相關(guān)性、數(shù)據(jù)敏感性、不適當(dāng)?shù)钠姾驼吆弦?guī)性。●決策:商業(yè)生成式人工智能工具不得用于任何福利裁定、資格認(rèn)證、審查或法律或民事調(diào)查或執(zhí)法相關(guān)行動(dòng)的決策過程。2.2聯(lián)邦貿(mào)易委員會(huì)政策宣傳與研究指導(dǎo):●人工智能(及其他)公司:悄悄更改服務(wù)條款可能是不公平或具有欺騙性的隨著數(shù)據(jù)成為科技和商業(yè)創(chuàng)新的驅(qū)動(dòng)力,開發(fā)人工智能產(chǎn)品的公司越來越多的將其用戶群體作為主要的數(shù)據(jù)來源。然而,這些公司必須在獲取這些數(shù)據(jù)與對(duì)其保護(hù)用戶隱私的承諾之間取得平衡,任何試圖偷偷放松隱私政策以使用更多客戶信息的行為都可能導(dǎo)致違法。公司不能回溯性地更改其隱私政策的條款,因?yàn)檫@對(duì)可能在不同條件下同意該政策的消費(fèi)者構(gòu)成不公平和欺騙性行為。聯(lián)邦貿(mào)易委員會(huì)一直以來都具有質(zhì)疑公司的欺騙性和不公平隱私做法的權(quán)利,并將繼續(xù)對(duì)試圖無視隱私37法規(guī)和欺騙消費(fèi)者的公司采取行動(dòng)。歸根結(jié)底,對(duì)于希望與用戶建立信任并避免法律后果的公司來說,透明度、誠(chéng)實(shí)和誠(chéng)信是至關(guān)重要的?!袢斯ぶ悄芄荆郝男袑?duì)用戶的隱私和保密承諾開發(fā)人工智能模型需要大量數(shù)據(jù)和資源,并非所有企業(yè)都有能力開發(fā)自己的模型。提供模型即服務(wù)(MaaS)的公司,通過用戶界面和應(yīng)用程序接口為第三方提供人工智能模型,幫助它們解決這一問題。這些公司持續(xù)需要數(shù)據(jù)改進(jìn)他們的模型,這有時(shí)會(huì)與他們保護(hù)用戶數(shù)據(jù)和隱私的義務(wù)沖突。聯(lián)邦貿(mào)易委員會(huì)對(duì)未能保護(hù)客戶數(shù)據(jù)和隱私,以及濫用客戶數(shù)據(jù)的公司實(shí)施法律制裁。提供模式即服務(wù)的公司無論在哪里做出承諾,都必須遵守,并確保不欺騙客戶或參與不公平競(jìng)爭(zhēng)。在人工智能模型的訓(xùn)練和部署過程中,虛假陳述、重大遺漏和數(shù)據(jù)濫用都會(huì)給競(jìng)爭(zhēng)帶來風(fēng)險(xiǎn),違反消費(fèi)者隱私權(quán)或采用不公平競(jìng)爭(zhēng)手段的提供模型即服務(wù)的公司可能受到反壟斷法和消費(fèi)者保護(hù)法的追究。2.3美國(guó)白宮管理和預(yù)算辦公室(OMB)在聯(lián)邦機(jī)構(gòu)使用人工智能的治理、創(chuàng)新和風(fēng)險(xiǎn)管理的政策副總統(tǒng)卡馬拉-哈里斯宣布了一項(xiàng)政府范圍內(nèi)的政策,旨在降低人工智能的風(fēng)險(xiǎn)并利用其益處。這項(xiàng)政策是根據(jù)拜登總統(tǒng)人工智能行政令(請(qǐng)參閱下文)發(fā)布的,旨在加強(qiáng)人工智能的安全性和保障性,促進(jìn)公平和保障公民權(quán)利,推動(dòng)美國(guó)的人工智能領(lǐng)域的創(chuàng)新。新政策包含了針對(duì)聯(lián)邦機(jī)構(gòu)使用可能影響美國(guó)人權(quán)利或安全的人工智能的具體保障措施。其目標(biāo)是消除負(fù)責(zé)任的人工智能新的障礙,擴(kuò)大并提升人工智能人才隊(duì)伍的技能,并加強(qiáng)人工智能的治理。政府正在通過這一政策促進(jìn)各聯(lián)邦機(jī)構(gòu)利用人工智能的透明度、問責(zé)制以及對(duì)權(quán)利和安全的保護(hù)。這項(xiàng)旨在降低人工智能風(fēng)險(xiǎn)并利用其益處的政府政策的主要亮點(diǎn)如下:●具體的人工智能保障措施:到2024年12月1日,聯(lián)邦機(jī)構(gòu)在使用可能影響美國(guó)人權(quán)利或安全的人工智能時(shí),必須實(shí)施具體的保障措施。這些保障措施包括評(píng)估、測(cè)試和監(jiān)控人工智能對(duì)公眾的影響、降低算法歧視的風(fēng)險(xiǎn),以及提高政府使用人工智能的透明度。38●醫(yī)療保健領(lǐng)域的人類監(jiān)督:在聯(lián)邦醫(yī)療系統(tǒng)中使用人工智能支持關(guān)鍵診斷決策時(shí),由人類來監(jiān)督這一過程,以核實(shí)工具的結(jié)果,避免醫(yī)療服務(wù)的不平等?!袢祟惐O(jiān)督欺詐檢測(cè):當(dāng)人工智能被用于檢測(cè)政府服務(wù)中的欺詐行為時(shí),由人類監(jiān)督有影響的決策,受影響的個(gè)人也有機(jī)會(huì)尋求補(bǔ)救人工智能造成的傷害?!袢斯ぶ悄苁褂玫耐该鞫龋郝?lián)邦機(jī)構(gòu)被要求通過發(fā)布人工智能用例的年度擴(kuò)大清單、報(bào)告敏感用例的指標(biāo)、通知公眾人工智能豁免及理由、發(fā)布政府擁有的人工智能代碼、模型和數(shù)據(jù),來提高其使用人工智能的公開透明度?!褙?fù)責(zé)任的人工智能創(chuàng)新:該政策旨在消除聯(lián)邦機(jī)構(gòu)在負(fù)責(zé)任的人工智能創(chuàng)新方面的障礙。它強(qiáng)調(diào)了人工智能在應(yīng)對(duì)氣候危機(jī)、促進(jìn)公共衛(wèi)生和保護(hù)公共安全方面的應(yīng)用實(shí)例?!駢汛笕斯ぶ悄苋瞬抨?duì)伍:政策指導(dǎo)各機(jī)構(gòu)擴(kuò)大人工智能人才隊(duì)伍并提高其技能?!窦訌?qiáng)人工智能治理:該政策要求聯(lián)邦機(jī)構(gòu)指定首席人工智能官來協(xié)調(diào)各機(jī)構(gòu)內(nèi)部的人工智能使用,并成立人工智能管理委員會(huì)管理機(jī)構(gòu)內(nèi)的人工智能使用。●停止使用人工智能:如果某個(gè)機(jī)構(gòu)不能采用規(guī)定的保障措施,就必須停止使用人工智能系統(tǒng),除非機(jī)構(gòu)領(lǐng)導(dǎo)層能說明為什么采用規(guī)定的保障措施會(huì)增加整體安全或權(quán)利的風(fēng)險(xiǎn),或者會(huì)對(duì)機(jī)構(gòu)的關(guān)鍵業(yè)務(wù)造成不可接受的障礙。2.4拜登總統(tǒng)關(guān)于安全、可靠和負(fù)責(zé)任地開發(fā)和使用人工智能的行政令拜登總統(tǒng)于2023年10月發(fā)布的關(guān)于安全、可靠和負(fù)責(zé)任地開發(fā)和使用人工智能的行政令,是一項(xiàng)具有里程碑意義的努力,旨在解決社會(huì)關(guān)注的如何建立負(fù)責(zé)任的人工智能實(shí)踐的問題。該行政令的重點(diǎn)是確保安全、可靠和合乎倫理地開發(fā)和使用人工智能,包括數(shù)據(jù)隱私、倫理、勞動(dòng)力發(fā)展和國(guó)際合作等關(guān)鍵領(lǐng)域。它概述了一項(xiàng)制定指導(dǎo)方針和最佳實(shí)踐的計(jì)劃,指導(dǎo)負(fù)責(zé)任地開發(fā)和部署人工智能技術(shù)。該計(jì)劃包括委派多個(gè)政府機(jī)構(gòu),如美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究所、美國(guó)國(guó)家科學(xué)基金會(huì)和美國(guó)商務(wù)部,開發(fā)與現(xiàn)有框架和主題相關(guān)的資源和最佳實(shí)踐,例如:●算法的公平性和偏見●人工智能模型的可解釋性和可解讀性●標(biāo)準(zhǔn)化測(cè)試和評(píng)估方法雖然具體的監(jiān)管細(xì)節(jié)還未出臺(tái),但該行政令標(biāo)志著政府致力于構(gòu)建一個(gè)可靠的人工智能框架。雖然拜登總統(tǒng)的行政令并沒有重新定義人工智能的法律和監(jiān)管環(huán)境,但它強(qiáng)調(diào)了符合倫理和負(fù)責(zé)任使用的重要性,并解決了數(shù)據(jù)生命周期中的數(shù)據(jù)隱私、安全控制和網(wǎng)絡(luò)安全等問題。雖然還沒有制定具體的法規(guī),但安全、可靠和負(fù)責(zé)任地開發(fā)和使用人工智能的行政令為負(fù)責(zé)任的人工智能開發(fā)和使用奠定了全面的基礎(chǔ),通過關(guān)注數(shù)據(jù)隱私、倫理、勞動(dòng)力發(fā)展和國(guó)際合作來解決社會(huì)問題。由聯(lián)邦政府層面制定和實(shí)施的人工智能相關(guān)法規(guī)和政策的缺失導(dǎo)致了一個(gè)復(fù)雜的局面,許多不同的州和地區(qū)正在頒布和實(shí)施各種法規(guī)。正如美國(guó)伯克利律師事務(wù)所發(fā)布的“美國(guó)各州人工智能立法快照”中所強(qiáng)調(diào)的,這些法規(guī)的拼湊造成了一個(gè)關(guān)鍵的擔(dān)憂。3.非歧視與公平生成式人工智能能夠產(chǎn)生新穎的內(nèi)容并影響決策,這引起了人們對(duì)歧視和公平性的嚴(yán)重關(guān)切,并引發(fā)了法律和監(jiān)管方面的審查。讓我們回顧一下反歧視法律法規(guī)如何影響生成式人工智能的設(shè)計(jì)、部署和使用。3.1部分現(xiàn)行反歧視法律法規(guī)解決人工智能算法和決策過程中基于受保護(hù)特征的歧視問題的現(xiàn)行法律和擬議法律摘要:●美國(guó)《民權(quán)法案》(1964年)第七章:禁止基于種族、膚色、宗教、性別和國(guó)籍的就業(yè)歧視。如果在招聘、晉升或績(jī)效評(píng)估中使用的人工智能系統(tǒng)(包括生成式人工智能),長(zhǎng)期存在對(duì)受保護(hù)群體的偏見,那么這些系統(tǒng)可能面臨《民權(quán)法案》第七章的審查?!衩绹?guó)平等就業(yè)機(jī)會(huì)和民權(quán)法案及其執(zhí)行機(jī)構(gòu):將第七章的保護(hù)范圍擴(kuò)大到年齡和殘疾?;谶@些特征的算法偏見也是被禁止的。美國(guó)平等就業(yè)機(jī)會(huì)委員會(huì)(EEOC)發(fā)布的技術(shù)援助文件是其“人工智能與算法公平性倡議”的一部分,該倡議旨在確保在招聘和其他就業(yè)決策中使用的軟件(包括人工智能)符合EEOC執(zhí)行的聯(lián)邦民權(quán)法律。此外,2008年頒布的《遺傳信息反歧視法》是一部聯(lián)邦法律,禁止在就業(yè)和醫(yī)療保險(xiǎn)中基于遺傳信息的歧視。雖然它并不直接管理算法決策(包括人工智能系統(tǒng)做出的決策),但它禁止基于遺傳信息的就業(yè)歧視。使用生成式人工智能系統(tǒng)的公司仍有責(zé)任確保其系統(tǒng)是公平、無偏見的,且不會(huì)基于任何敏感信息(包括遺傳信息)延續(xù)歧視性做法?!衩绹?guó)的《公平住房法》:禁止基于與《第七章》相同的受保護(hù)特征的住房歧視,用于租戶篩選或抵押貸款審批的人工智能驅(qū)動(dòng)工具必須遵守這些保護(hù)規(guī)定。●美國(guó)《平等信貸機(jī)會(huì)法》:禁止基于種族、膚色、宗教、國(guó)籍、性別、婚姻狀況、年齡或殘疾的信貸歧視。該法案要求必須仔細(xì)評(píng)估人工智能驅(qū)動(dòng)的信用評(píng)分模型是否會(huì)產(chǎn)生潛在的歧視性影響?!穸嗖柯?lián)邦民權(quán)法(如《民權(quán)法案》第六章、《教育修正案》第九章和《康復(fù)法案》第504節(jié)):禁止在教育環(huán)境中基于種族、膚色、國(guó)籍、性別、殘疾和年齡的歧視。學(xué)校和教育機(jī)構(gòu)必須遵守這些法律,確保其實(shí)踐(包括涉及機(jī)器學(xué)習(xí)和人工智能等技術(shù)的實(shí)踐)不會(huì)基于上述受保護(hù)特征歧視學(xué)生。●歐盟《通用數(shù)據(jù)保護(hù)條例(GDPR)》:賦予個(gè)人訪問、更正和刪除其個(gè)人數(shù)據(jù)的權(quán)利。這影響到生成式人工智能系統(tǒng)如何收集和使用個(gè)人信息,以避免出現(xiàn)歧視性結(jié)果。它要求數(shù)據(jù)控制者實(shí)施防止歧視性分析和自動(dòng)決策的保障措施。此外,《加州消費(fèi)者隱私法案》/《加州隱私權(quán)法案》還禁止組織歧視行使隱私權(quán)的消費(fèi)者。●《算法問責(zé)法案》(美國(guó),2019-2020年):旨在建立聯(lián)邦偏見審計(jì)標(biāo)準(zhǔn),評(píng)估政府機(jī)構(gòu)和企業(yè)使用的人工智能算法的公平性、責(zé)任性和透明度。●歐盟《人工智能法案》(2024):對(duì)高風(fēng)險(xiǎn)的人工智能應(yīng)用提出具體要求,包括解決偏見和歧視問題?!瘛都~約市算法偏見法案》(美國(guó),2021年):要求對(duì)城市機(jī)構(gòu)使用的人工智能算法進(jìn)行審計(jì),以確定是否存在基于受保護(hù)特征的潛在偏見?!瘛都永D醽喼葑詣?dòng)化決策法案》(2023年,美國(guó))I《紐約自動(dòng)化就業(yè)決策工具法案》(2023年,美國(guó)):兩者都要求企業(yè)在使用對(duì)消費(fèi)者有重大影響的自動(dòng)化決策工具時(shí),提供通知和解釋。●《加州消費(fèi)者隱私法案》I《加州隱私權(quán)法案》禁止歧視行使隱私權(quán)的消費(fèi)者。這可能會(huì)給在含有固有偏見的數(shù)據(jù)集上訓(xùn)練的生成式人工智能模型帶來潛在挑戰(zhàn)。在《加州消費(fèi)者隱私法案》/《加州隱私權(quán)法案》下,減少此類偏差以確保非歧視性輸出變得至關(guān)重要。●《美國(guó)殘疾人法案》:這是一套規(guī)定為殘疾人提供便利的標(biāo)準(zhǔn)和法規(guī),與公眾互動(dòng)的人工智能系統(tǒng)需要遵守《美國(guó)殘疾人法》關(guān)于無障礙的規(guī)定。42●《公平信用報(bào)告法》:該法對(duì)如何收集和使用消費(fèi)者信息做出了規(guī)定。金融行業(yè)中使用的人工智能模型(如用于貸款決策)需要確保符合《公平信用報(bào)告法》,以避免決策中出現(xiàn)不公平的偏差。最近的一些事例,如美國(guó)的訴訟,指控有偏見的人工智能算法導(dǎo)致的歧視性招聘行為,以及基于歐盟《通用數(shù)據(jù)保護(hù)條例》裁決而對(duì)基于人工智能的人臉識(shí)別系統(tǒng)執(zhí)行更嚴(yán)格的審查,都凸顯了人們對(duì)潛在偏見、歧視性定性以及遵守反歧視法律的必要性。這些最近的例子凸顯了人工智能招聘中可能存在的偏見,用于選擇候選人的工具曾面臨歧視指控:●新聞中的執(zhí)法案例:2023年,EEOC首次針對(duì)通過人工智能進(jìn)行的歧視提起訴訟:訴訟稱,麥琪教育科技因年齡原因未能聘用200多名55歲以上的合格申請(qǐng)人。起訴方稱,她用自己的真實(shí)出生日期申請(qǐng),立即遭到拒絕,第二天又用更近的出生日期申請(qǐng)時(shí)則獲得了面試機(jī)會(huì)。因此,2023年1月,平等就業(yè)機(jī)會(huì)委員會(huì)發(fā)布了《戰(zhàn)略執(zhí)法計(jì)劃草案》(2023-2027),該草案表明平等就業(yè)機(jī)會(huì)委員會(huì)明確關(guān)注在整個(gè)就業(yè)生命周期中對(duì)人工智能的歧視性使用的問題,從招聘開始,包括員工績(jī)效管理?!袢斯ぶ悄苷衅钢械钠缫暫推姡?023年案例:本案例研究是人工智能招聘中存在偏見的真實(shí)案例。一家銀行用于篩選求職者的人工智能工具被發(fā)現(xiàn)出了重要的法律問題,并強(qiáng)調(diào)了在招聘過程中使用人工智能工具時(shí),對(duì)潛具有歧視性。該案例提在偏見保持警惕的重要性。●使用人工智能監(jiān)控員工信息,2024年:這篇文章重點(diǎn)介紹了大型企業(yè)如何利用人工智能服務(wù)監(jiān)控員工信息。它不僅能分析情感,還能評(píng)估文本和圖片中的“欺凌、騷擾、歧視、不合規(guī)、色情、裸露和其他行為”,甚至還能分析不同人群(如年齡組、地點(diǎn))對(duì)公司舉措的反應(yīng)。雖然采用了數(shù)據(jù)匿名化等隱私保護(hù)技術(shù),但
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 急診科信息化建設(shè)規(guī)劃計(jì)劃
- 2024年遼寧省文化和旅游廳下屬事業(yè)單位真題
- 2024年西安浐灞綠地小學(xué)招聘筆試真題
- 秋季傳統(tǒng)文化教育實(shí)施計(jì)劃
- 2024年海南省公安廳下屬事業(yè)單位真題
- 改進(jìn)檢驗(yàn)科報(bào)告及時(shí)性的工作匯報(bào)計(jì)劃
- 2024年臨沂市各級(jí)機(jī)關(guān)錄用公務(wù)員筆試真題
- 2024年呼和浩特市曙光學(xué)校教師招聘筆試真題
- 2024年河池市羅城法院招聘筆試真題
- 2024年甘肅省直機(jī)關(guān)選調(diào)公務(wù)員筆試真題
- 美容師職業(yè)形象與禮儀考察試題及答案
- 困難氣道管理指南2024
- 2025年新音樂節(jié)明星藝人歌手演出場(chǎng)費(fèi)報(bào)價(jià)單
- (一模)青島市2025年高三年級(jí)第一次適應(yīng)性檢測(cè)英語試卷(含標(biāo)準(zhǔn)答案)+聽力材料
- 70歲老年人三力測(cè)試能力考試題庫附答案
- 交通中國(guó)知到智慧樹章節(jié)測(cè)試課后答案2024年秋上海工程技術(shù)大學(xué)
- 2025年《中央一號(hào)文件》參考試題庫資料100題及答案(含單選、多選、判斷題)
- GB/T 28185-2025城鎮(zhèn)供熱用換熱機(jī)組
- 川教版(2019)小學(xué)信息技術(shù)四年級(jí)下冊(cè) 第二單元第3節(jié)《圖文并茂》教學(xué)設(shè)計(jì)及反思
- 烹飪?cè)现R(shí)試題庫(附參考答案)
- 主動(dòng)剎車防撞系統(tǒng)說課
評(píng)論
0/150
提交評(píng)論