




版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
全球生成式人工智能監管研
究
報
告2023.08目錄一、生成式人工智能監管地圖...................................................................................1二、主要地區監管概述...............................................................................................2(一)中國............................................................................................................
2(二)歐盟............................................................................................................
2(三)美國............................................................................................................
6(四)加拿大........................................................................................................
7(五)英國............................................................................................................
9(六)澳大利亞..................................................................................................
11(七)印度..........................................................................................................
12(八)日本..........................................................................................................
13(九)新加坡......................................................................................................
14(十)中國香港..................................................................................................
16三、中國.....................................................................................................................
17(一)監管對象..................................................................................................
17(二)監管部門..................................................................................................
18(三)合規義務要求..........................................................................................
18(四)未來可能面臨的監管挑戰......................................................................
19四、歐盟.....................................................................................................................
21(一)監管框架..................................................................................................
21(二)一般合規義務..........................................................................................
24(三)特殊合規義務..........................................................................................
29(四)監管動態..................................................................................................
31(五)相關機構..................................................................................................
32五、美國.....................................................................................................................
34(一)監管框架..................................................................................................
34(二)一般合規義務..........................................................................................
37(三)特殊合規義務..........................................................................................
39(四)監管動態..................................................................................................
40(五)相關機構..................................................................................................
41六、加拿大.................................................................................................................
42(一)監管框架..................................................................................................
42(二)一般合規義務..........................................................................................
43(三)監管動態..................................................................................................
48(四)相關機構..................................................................................................
498VlZpYNBsZ6MbP7NmOoOnPtQiNrRwOlOnPrN6MmOnONZoPmNxNqMnR一、生成式人工智能監管地圖截止
2023
年
7
月
24
日,我們依據對全球生成式人工智能監管動向的梳理,繪制了監管地圖:1.
紅色區域表明該地區目前已經或即將建立成熟且較為嚴格的監管制度,主要包括歐盟、加拿大和中國;2.
橙色區域表明該地區目前對生成式人工智能產品存在一定的限制和監管要求,例如美國;3.
黃色區域表明該地區目前還沒有相關制度,但是監管機構未來有計劃對生成式人工智能制定規則,例如英國、澳大利亞和印度;4.
綠色區域表明該地區目前沒有相關制度,且監管機構也傾向于在未來不采取強制性的監管措施,例如新加坡、日本、中國香港。注:地圖顏色僅表明不同地區在生成式人工智能領域法律監管的程度。1二、主要地區監管概述(一)中國中國監管機構從
2021
年起加強了對人工智能的監管,并陸續發布了《互聯網信息服務算法推薦管理規定》(“算法推薦規定”)《互聯網信息服務深度合成管理規定》(“深度合成規定”)和《生成式人工智能服務管理暫行辦法》(“生成式辦法”)三部重要的部門規章。這三部規章都可能適用于向中國境內公眾提供的生成式人工智能服務。而在未來,中國還可能制定層級更高的《人工智能法》,并落實科技倫理審查制度。與此同時,這三部規范也確立了中國將采取“包容審慎的分類分級監管”原則。在未來,國家有關主管部門針對生成式人工智能技術特點及其在有關行業和領域的服務應用,將制定相應的分類分級監管規則或者指引。目前負責算法備案、評估與監管的機構主要是網信辦(中央網信辦網絡管理技術局)。與此同時,電信主管部門、公安部門也會依據職責負責監督管理工作。針對生成式人工智能的主要合規義務:2(二)歐盟歐盟現行人工智能立法仍主要集中在傳統人工智能而非生成式人工智能上,但也逐漸觸及生成式人工智能的問題,例如在最新的《人工智能法》草案中規定了通用及生成式人工智能相關基礎模型提供者的義務。歐盟的人工智能路徑主張“以人為本(human-centric)”,在促進人工智能發展與創新的同時,構建監管體系以防范風險、保護公民基本權利和安全。歐盟目前對于人工智能的監管和治理重點在于尊重人格尊嚴、個人自由和保護數據及隱私安全。最新的立法進展是
2023
年
6
月
14
日歐洲議會對《人工智能法》的修訂。該法采用“基于風險的方法”(risk-based)將人工智能系統分成四類,制定了不同程度的合規要求。其中,生成式人工智能系統一般屬于有限風險的人工智能系統,需遵守最低限度的透明度義務,但可能會因其適用的領域和生成的內容而落入高風險人工智能系統的范疇。1
與此同時,該法也規定了提供者、進口商、分銷商、部署者、通用及生成式人工智能相關基礎模型提供者等不同主體的合規義務。根據侵權行為的性質、嚴重程度等因素,不遵守《人工智能法》的相關當事人可能被處以不同規模的行政罰款。個人公司將禁止的人工智能系統投放市場或投入使用最高可被處
4000
萬
罰款
4000
萬歐元或上一財政年度全球歐元罰款
年營業額的
7%(以較高者為準)不遵守高風險人工智能系統關于數據治理、透明度和提供信息給用戶的規定最高可被處
2000
萬
罰款
2000
萬歐元或上一財政年度全球歐元罰款
年營業額的
4%(以較高者為準)1
European
Parliament
News:
https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence3違反其他對于人工智能系
最高可被處
1000
萬
罰款
1000
萬歐元或上一財政年度全球統或模型的要求和義務在答復請求時向公告機構和國家主管當局提供不正確、不完整或誤導性的信息歐元罰款年營業額的
2%(以較高者為準)最高可被處
500
萬歐元罰款罰款
500
萬歐元或上一財政年度全球年營業額的
1%(以較高者為準)歷時兩年有余,《人工智能法》草案的提出和修訂體現了歐盟對人工智能的嚴格監管態度。盡管最新的草案修訂稿對創新發展的考量增多,但總體而言,歐盟對人工智能的監管仍非常嚴苛。在執法方面,近年來,已有多個包括意大利、法國、西班牙等多個歐盟成員國對
ChatGPT
展開調查。在監管方面,歐盟目前沒有專門針對人工智能監管的獨立機構,主要由歐盟層面及成員國層面不同領域的主管部門聯合監管和執法。最新的《人工智能法》草案要求成員國指定一個或多個主管機構,包括一個國家監管機構,負責監督《人工智能法》的應用和實施;并提議在歐盟層面建立由成員國和歐盟委員會的代表組成的新歐盟機構——“人工智能辦公室”,以期為《人工智能法》的統一適用提供指導、協調聯合跨境調查。此外,歐洲數據保護委員會(EDPB)、國家市場監督機構、海關、國家消費者保護當局會負責各自領域與人工智能有關的執法工作。《人工智能法》中通用及生成式人工智能相關基礎模型提供者的特殊義務:4《人工智能法》中包括生成式人工智能在內的有限風險的人工智能系統的透明度義務:5(三)美國美國是目前人工智能技術的策源地和領導者。為了保持這一領導地位,美國政府將促進人工智能的創新和發展作為高度優先事項。因此,美國主張監管需以促進人工智能負責任的創新(responsible
innovation)為目標,應通過監管和非監管措施減少人工智能開發和部署的不必要障礙,同時保護美國的技術、經濟和國家安全、公民自由、人權、法治、隱私和尊重知識產權等核心價值觀。目前美國對人工智能的關注重點在于公民權利、公民自由、數據與隱私安全及知識產權保護。盡管美國的部分州已通過與人工智能有關的法案,但美國目前尚無專門規范通用人工智能或生成式人工智能的法律性文件。雖然兩黨議員嘗試就不同人工智能事項提請立法,有趨勢表明美國對人工智能的監管或將加強,但聯邦立法監管目前仍處于非常早期的階段。細分領域不具有法律強制性的非監管措施如主管部門的政策文件、指南、治理框架、試點項目和實驗、行業自律、社會組織的共識等是目前人工智能企業在美國行事的主要參考和依循。需要注意的是,美國政府有對于生成式人工智能相關的產品實施嚴格進出口管制的趨勢。美國政府曾嚴格限制用于人工智能工作的頂級計算芯片、超級計算機和其他半導體產品對中國的出口。此外,2023
年
7
月
4
日,媒體報道美國政府還計劃限制中國企業使用美國的云計算服務。2美國目前沒有專門針對人工智能監管的獨立機構,各領域主管部門將繼續在自己的職責范圍內對生成式人工智能進行監管。2
/technology/us-set-restrict-chinas-access-cloud-computing-wsj-2023-07-04/6為包含人工智能生成材料的作品申請版權保護的申請人有以下義務:近期與生成式
AI
相關的監管動態:2023
年
7
月
21
日,Amazon、Anthropic、Google、Inflection、Meta、Microsoft
和
OpenAI
向美國政府自愿作出一系列承諾。7(四)加拿大加拿大將自己定位為人工智能發展的領導者。為此,加拿大政府主張對人工智能采取靈活的監管方法,在促進人工智能系統設計、開發和使用的安全性的同時,維護加拿大民眾的價值觀,亦不致扼殺負責任的創新。加拿大對人工智能的監管重點在于隱私保護。目前加拿大沒有明確針對人工智能的監管制度,加拿大的人工智能系統受到一般性的隱私、技術和人權法律的監管。雖然加拿大尚未處于制定全面的人工智能監管制度的階段,但聯邦和省兩級都在采取行動彌補監管空白,以期讓加拿大民眾信任人工智能技術。2022
年
6
月提出的《人工智能和數據法》作為加拿大隱私領域立法改革的一部分,是加拿大針對人工智能進行監管的首次嘗試。該法采用“基于風險的方法(”
risk-based)對高影響人工智能系統的風險進行重點監管,具體標準有待后續法規進行界定。該法為人工智能系統負責人即設計、開發、使用、提供或管理人工智能系統運行的主體設定了合規義務,在相關活動中處理或者使用數據的主體也承擔一定的透明度義務。違反該法的當事人可能面臨行政罰款、行政訴訟甚至刑事制裁。《人工智能和數據法》下人工智能系統負責人的合規義務:8違反合規義務的人工智能系統負責人將面臨下表所示的處罰。個人公司不超過
1
千萬加元與其被判刑前的財政年度內全球總收入的
3%的罰款中更高額的罰款不超過
500
萬加元與其被判刑前的財政年度內全球總收入的
2%的罰款中更高額的罰款經公訴定罪法院酌情罰款經簡易程序定罪不超過
5
萬加元罰款在實踐方面,加拿大的兩個地區法院對于在法律意見書等材料中使用人工智能(一般是生成式人工智能技術)發布了實務指導。在執法方面,2023
年
4
月,加拿大隱私專員辦公室啟動對
OpenAI
的調查,5
月下旬,多省數據保護機構與加拿大隱私專員辦公室合作,對
OpenAI
展開聯合調查。在監管方面,加拿大目前沒有專門針對人工智能進行監管的獨立機構,主要由不同領域的主管部門監管和執法。正在審議的《人工智能和數據法》規定創新、科學與工業部部長負責執行該法;提議建立由新的人工智能和數據專員領導的辦公室,作為支持該法監管和執行的專門知識中心。此外,加拿大檢察署、加拿大隱私專員辦公室等部門負責各自領域與人工智能有關的執法工作。(五)英國英國希望成為世界上建立和發展人工智能業務的最佳場所,以便將人工智能9的巨大潛力轉化為英國的經濟增長和社會效益。因此,英國主張建立支持創新(pro-innovation)、合比例(proportionate)、可信、適應性強、明確和協作的監管框架,以期為投資者、企業和公眾提供信心。英國不希望繁重的合規義務打擊企業的創新意愿,因此沒有專門針對人工智能進行立法,而主要通過發布指南、最佳實踐等非監管措施為企業提供指導,鼓勵促進人工智能領域負責任的創新,且對生成式人工智能這類新興的人工智能的發展持較開放的態度。例如,財政部建議讓創新者和企業家在監管沙盒(regulatory
sandbox)中試驗新產品或服務而無需擔心罰款或責任風險,存在監管不確定性的生成式人工智能也可以使用監管沙盒。2023
年
6
月,英國內閣辦公室發布了《公務員使用生成式人工智能的指引》,介紹了公務員使用生成式人工智能的一般原則。英國對生成式人工智能風險的關注重點在于數據和隱私保護。教育部在《教育領域中的生成式人工智能》中明確指出,為保護個人隱私,個人信息和敏感數據不應輸入生成式人工智能工具。英國信息專員辦公室也提示開發或使用生成式人工智能的人負有數據保護的法定義務,他們需要考慮處理個人數據的合法依據為何、處理或控制數據的身份、通過數據保護影響評估、公開有關處理信息、降低安全風險、限制不必要的處理、尊重個人訪問、糾正、刪除等權利請求、是否完全使用生成式人工智能自動決策等問題。3
對于人工智能生成的作品,英國知識產權署在
2022
年
6
月公布咨詢結果,認為暫時沒有證據表明人工智能生成的作品是有害的,其仍然受到英國版權法的保護。4在執法方面,2023
年
5
月,英國競爭與市場局對開發和使用人工智能基礎3
Generative
AI:
eight
questions
that
developers
and
users
need
to
ask
|
ICO4
Artificial
Intelligence
and
Intellectual
Property:
copyright
and
patents:
Government
response
to
consultation
-GOV.UK
(.uk)10模型涉及市場競爭和消費者保護的方面進行初步審查。5
2023
年
6
月,教育部啟動公眾咨詢,尋求民眾關于生成式人工智能在英國教育中的應用及其機遇與風險的看法。6英國信息專員辦公室呼吁企業在使用生成式人工智能前“應對隱私風險”,同時宣布“將對企業是否遵守數據保護法律進行更嚴格的檢查”。7英國沒有專門監管人工智能的獨立機構,各領域監管機構在其執法范圍內對相關行為進行監管。如英國信息專員辦公室作為英國的數據保護機構將對人工智能相關主體處理數據的行為進行監管,英國競爭與市場局將對不公平競爭、損害消費者的行為進行監管等。(六)澳大利亞澳大利亞的人工智能方法希望確保人工智能可信賴、安全和負責任。澳大利亞目前主要發布了人工智能的道德原則,尚未決定對人工智能進行硬性監管。澳大利亞尚未制定專門針對人工智能的立法,所有人工智能的治理都依賴于現行法律和指南。近期與生成式人工智能有關的動態是
2023
年
7
月,數字轉換機構和工業、科學與資源部合作發布了《關于政府使用生成式人工智能平臺的臨時指南》,指出公共部門使用生成式人工智能需遵守四項原則:負責任地使用;透明度和可解釋性;隱私保護和安全;決策以人為本、落實問責制。8
此外,澳大利亞知識產權局正在對生成式人工智能對知識產權的影響進行研究。95
CMA:.uk/government/news/cma-launches-initial-review-of-artificial-intelligence-models6
.uk/government/consultations/generative-artificial-intelligence-in-education-call-for-evidence7
Don’t
be
blind
to
AI
risks
in
rush
to
see
opportunity
–
ICO
reviewing
key
businesses’
use
of
generative
AI
|
ICO8
.au/guidance-generative-ai
/9
Generative
AI
And
The
IP
System
–
What
Does
It
All
Mean?
|
IP
Australia11澳大利亞沒有專門針對人工智能進行監管的機構,各領域主管部門將在其主管范圍內對人工智能進行監管。澳大利亞信息專員辦公室負責執行隱私法律,有權對人工智能涉嫌侵害隱私的行為進行調查。澳大利亞工業、科學與資源部經常參與人工智能政策文件的制定。(七)印度印度沒有人工智能監管的正式法律法規。與此同時,人工智能產品息息相關的數據保護領域,印度目前也遲遲沒有通過多次修改的《個人數據保護草案》。目前,僅有《信息技術法案》(Information
Technology
Act,
2000)與《信息技術(合理的安全實踐和程序及敏感個人數據或信息)規則》(Information
Technology(Reasonable
Security
Practices
and
Procedures
and
Sensitive
Personal
Data
orInformation)
Rules,
2011)要求數據處理者維持合理的安全措施和程序,制定隱私政策,在收集或傳輸敏感的個人數據或信息時獲得同意,并將此類收集的數據告知接收者的數據主體。但是,近年來,印度監管者一直在積極研究人工智能監管的議題。2023
年
3月起,印度政府的國家人工智能門戶網站
INDIAai
組織學術界的知名人士舉辦了三場圓桌討論會,討論研究生成式人工智能的影響、倫理和監管問題以及它給印度帶來的機遇。10印度電子和信息技術部部長錢德拉塞卡(Rajeev
Chandrasekhar)在接受媒體采訪時表示,政府正計劃監管人工智能(AI),以保護公民免受傷害。11而
7
月
20
日,印度電信監管局(Trai)也建議成立印度人工智能和數據管理局10
.in/research-reports/impact-opportunity-and-challenges-of-generative-ai11/economy/india-to-regulate-ai-for-user-protection-rajeev-chandrasekhar-11686335676103.html12(AIDAI)作為獨立的監管機構。12(八)日本日本希望實現以人為中心、網絡空間和物理空間高度融合從而可以促進經濟發展、解決社會問題的“社會
5.0”(society
5.0)。為此,日本對人工智能的治理提出了“以人為本的人工智能社會原則”,該原則包括以人為本、教育、隱私保護、確保安全、公平競爭、公平、問責制和透明度、創新七個原則。日本沒有選擇政府作為唯一制定、監督和執行人工智能規則主體的治理模式,而是選擇對人工智能實行敏捷治理(agile
governance)。這是一種多個利益相關主體共同治理的模式。不同的利益相關者包括政府、企業、個人和社區將對其所處的社會狀況進行持續分析,明確意圖實現的目標并設計各種系統實現這些目標,且對結果進行持續評估,以改進這些系統。日本目前沒有專門規制人工智能的法律,主要采用軟法如政策性文件、指導性文件等對人工智能進行規范,鼓勵人工智能用戶和企業自愿采取行動以實現“以人為本的人工智能社會原則”。日本目前對人工智能的監管關注點主要在于隱私和數據保護,主要聚焦醫療、農業、交通、教育等領域,其中醫療領域的規范最為成熟,配套監管措施也最多。近期關于生成式人工智能的動態:2023
年
4
月,日本教育、文化、體育、科學和技術大臣
Keiko
Nagaoka
在地方會議上證實,日本的法律不會保護人工智能數據集中使用的受版權保護的材料,“在日本,無論是非營利目的、營利目的、復制以外的行為,還是從非法網站等獲取的內容,無論采用何種方法,都可以被12/technology/tech-news/trai-issues-recommendations-on-ai-says-regulatory-framework-for-development-of-responsible-ai-urgently-needed-11689859911432.html13用于信息分析。”13
可見日本促進創新和進步、增強其在人工智能領域競爭力的決心。2023
年
6
月,日本個人信息保護委員會對
OpenAI
發出警告,由于擔心ChatGPT
收集敏感數據,該委員會可能會采取行動。日本個人信息保護委員會表示,OpenAI
只能在獲得許可的情況下收集數據并應盡量減少收集行為,同時要求
OpenAI
考慮隱私保護和生成式人工智能的潛在好處之間的平衡。14日本沒有專門對人工智能進行監管的機構,各領域主管機構將在其各自職權范圍內對人工智能進行監管。日本個人信息保護委員會負責保護包括個人信息在內的個人權益,人工智能處理數據的行為將落入該委員會的監管范圍內。日本經濟產業省作為負責提高民間經濟活力、維護對外經濟關系、保護經濟產業發展的部門經常參與人工智能治理的政策、指南等文件的制定。(九)新加坡新加坡希望建立可信賴和負責任的人工智能生態系統。新加坡目前沒有考慮對人工智能進行監管15,尚無專門規制人工智能的法律。已有的文件主要是指南、實踐指引等。新加坡發布了《模范人工智能治理框架》(第
2
版)及其配套文件《人工智能治理框架——機構實施及自我評估指引》《用例匯編》,幫助企業負責任地部署人工智能。近期與生成式人工智能有關的動態:新加坡信息通信媒體發展局發布討論文件《生成式人工智能:對信任和治理的影響》,為政府和企業的高級領導人提出了建立可信賴和負責任地使用生成式人工智能的生態系統的想法。決算行政監視委員會分科會質疑を振り返る。-きいたかし(キイタカシ)/選挙ドットコム13()14/technology/japan-privacy-watchdog-warns-chatgpt-maker-openai-data-collection-2023-06-02/15
Singapore
is
not
looking
to
regulate
A.I.
just
yet,
says
the
city-state
()14新加坡沒有專門對人工智能進行監管的機構,現有主管部門將在其職能范圍內對人工智能企業進行執法。如新加坡個人數據保護委員會將從數據保護的角度對人工智能的數據使用、處理等行為進行監管。值得一提的是,新加坡資訊通信媒體發展局和新加坡個人數據保護委員會推出了全球首個人工智能治理測試框架和工具包——“A.I.
Verify”。A.I.
Verify
通過技術測試和流程檢查可以幫助人工智能企業對其人工智能系統進行評估,驗證系統是否符合國際公認的人工智能原則、系統技術的公平性、可解釋性和穩健性以及根據企業合規需求定制報告等。15(十)中國香港中國香港目前對人工智能的監管持非常包容和開放的態度。創新科技及工業局局長孫東在回應記者問題中說,留意到國家最近針對有關技術和應用提出新措施,特區政府一直保持高度關注,將繼續持非常開放態度對待有關技術發展,適時作出應對。近幾年來,中國香港主要強調人工智能的開發和使用應合乎道德。從
2018年到
2022
年,香港發布了包括《中國香港的道德問責框架》《開發及使用人工智能道德標準指引》《人工智能道德框架》和《應用人工智能的高層次原則》在內的多份指導性文件。這類不具有法律上約束力的政策性文件是香港目前規范人工智能的主要文件。中國香港對人工智能的風險關注點主要集中在數據和隱私保護。16香港金融管理局在《應用人工智能的高層次原則》中表示,過分嚴格的規定可能會阻礙人工智能相關技術的進一步發展,因此只在指南中規定了設計和采用人工智能時應考慮的高層次的原則。可以預見,香港在短期仍將對人工智能保持非常寬容的態度。中國香港地區沒有設立監管人工智能的獨立機構。實踐中,個人資料私隱專員公署有權對人工智能開發和使用過程中的數據處理行為進行監管。創新、科技與工業局作為負責科技發展的政府部門,也經常參與到人工智能監管與發展政策、戰略的制定中。三、中國(一)監管對象這三部規章規制的對象“算法推薦技術”、“深度合成技術”與“生成式人工智能”,從技術角度解釋和法律文義解釋的視角看,存在包含關系。因此概念范圍最狹窄的生成式人工智能服務可能需要同時滿足三部規章的義務要求。16其中,《生成式人工智能服務管理暫行辦法》規制的是向中國境內公眾提供的生成式人工智能服務。但有學者指出,“公眾”一詞目前尚未有明確的定義和解釋,因此不能排除
to
B
的服務將完全豁免于該辦法的適用。同時,來源于中國境外向境內提供的生成式人工智能服務也受到該辦法的管轄。16
張凌寒,《深度合成治理的邏輯更新與體系迭代——ChatGPT
等生成型人工智能治理的中國路徑》;葛夢瑩,南鈺彤,《專家解讀|生成式人工智能、深度合成技術與算法推薦的關聯與合規要點》17(二)監管部門目前負責算法備案、評估與監管的機構主要是網信辦(中央網信辦網絡管理技術局)。與此同時,電信主管部門、公安部門也會依據職責負責監督管理工作。(三)合規義務要求1.合規義務概覽如下圖所示,面向中國境內的生成式人工智能服務需要同時滿足《算法推薦規定》《深度合成規定》與《生成式辦法》三部規章的要求。182.安全評估義務《生成式辦法》要求提供具有輿論屬性或者社會動員能力的生成式人工智能服務的,應當按照國家有關規定開展安全評估,并按照《互聯網信息服務算法推薦管理規定》履行算法備案和變更、注銷備案手續。這是生成式人工智能服務上市前的必要流程,據悉目前主流的
GPT
產品如百度的文心一格、阿里的通義千問均處于安全評估階段。生成式人工智能的安全評估與普通的算法推薦和深度合成評估不同,評估負責單位是中央網信辦網絡管理技術局,評估的顆粒度更細,所需提供的材料也更多。目前具體的評估內容和流程均未公開。(四)未來可能面臨的監管挑戰1.人工智能法2023
年
5
月
31
日,國務院辦公廳發布了《國務院
2023
年度立法工作計劃》,計劃在
2023
年提請全國人大常委會審議人工智能法草案。目前尚無該法律具體19的信息,但學者猜測該法律可能會與歐盟的人工智能法案相似,具有更高的層級和更廣的適用范圍。2.科技倫理審查2021
年
12
月
24
日,第二次修訂的《科學進步法》在第
103
條提出了要建立科技倫理審查機制。而在
2023
年
4
月
4
日,科技部官網發布公開征求對《科技倫理審查辦法(試行)》,完善了科技倫理審查的流程和要求。其中涉及數據和算法的科技活動,數據處理方案需要符合國家有關數據安全的規定,數據安全風險監測及應急處理方案得當;算法和系統研發需要符合公平、公正、透明、可靠、可控等原則。根據辦法草案,未來人工智能企業可能需要承擔的合規義務有:1)建立本單位的科技倫理(審查)委員會。2)建立健全科技活動全流程科技倫理監管機制和審查質量控制、監督評價機制,加強對科技倫理高風險科技活動的動態跟蹤、風險評估和倫理事件應急處置。3)在開展科技活動前進行科技倫理風險評估或審查。科技活動負責人應向本單位科技倫理(審查)委員會申請倫理審查。此外,根據科技部相關負責人在
2022
年《關于加強科技倫理治理的意見》新聞發布會的答復,國家科技倫理委員會正在研究制定科技倫理高風險科技活動清單,醫學、生命科學和人工智能方面是重點領域。未來,開展科技倫理高風險科技活動將需要按規定進行登記。20四、歐盟(一)監管框架歐盟現行人工智能立法仍主要集中在傳統人工智能而非生成式人工智能上,但也逐漸觸及生成式人工智能的問題。在采用軟法方法但不足以解決人工智能技術因其特定特征而帶來的風險后,歐盟開始著手完善立法。以下是歐盟關于人工智能的主要立法、指南。2019
年
4
月,歐盟委員會人工智能高級專家組發布了《可信賴的人工智能的道德指南》,為在歐盟設計、開發、部署、實施或使用人工智能產品和服務的利益相關者提供指引。指南道出了可信賴的人工智能的四項道德原則:尊重人類尊嚴、防止傷害、公平和可解釋性,并提出了實現這四項原則的七項要求。(《可信賴的人工智能的道德指南》提出的七項關鍵要求及其交互關系)2020
年
2
月,歐盟委員會發布了《人工智能白皮書:歐洲實現卓越和信任的途徑》,指出歐洲未來人工智能監管框架的關鍵是建立“卓越生態系統”和“可21信賴的生態系統”,保護基本權利、消費者權利等。2022
年
9
月,歐盟委員會發布了《將非契約性民事責任規則適用于人工智能的指令的提案》,倡議推定人工智能造成的損害與受害者遭受的損失之間存在因果關系,賦予國家法院命令披露涉嫌造成損害的高風險人工智能系統證據的權力,以期確保受人工智能系統傷害的人與受其他技術傷害的人享有相同的保護水平。2021
年
4
月,歐盟委員會提出了《人工智能法》草案,為歐盟人工智能產品和服務的開發、供應和使用制定了統一的法律框架。該提案建議在歐盟法律中引入技術中立的人工智能的定義,并根據“基于風險的方法”為不同類型的人工智能系統制定要求和義務。(《人工智能法》的分級監管示意圖)2022
年
12
月,歐盟理事會通過了其共同立場,建議縮小人工智能系統的定義;將禁止使用人工智能進行社會評分的禁令的適用范圍擴展到私人行為者,并增加在公共場所允許使用“實時”遠程生物識別系統這一例外情形;通過實施法律,對通用人工智能系統施加要求;增加新規以考慮人工智能系統可用于許多不同目22的(通用人工智能)的情況;簡化《人工智能法》的合規框架,特別是加強人工智能委員會的作用。2023
年
6
月
14
日,歐盟議會投票通過了最新的《人工智能法》草案。歐盟委員會、歐洲議會和歐盟理事會將進入“三方會談”階段。最新的草案再次作出了多項實質性修改,包括:
修改人工智能系統的定義,使其與亞太經合組織商定的定義保持一致
擴大被禁止的人工智能系統清單
限縮高風險人工智能系統的范圍為“存在可能損害人類健康、安全、基本權利或環境的‘重大風險’”的人工智能系統,在歐盟部署該類系統的主體有義務進行基本權利影響評估
對通用人工智能17
和
ChatGPT
等生成式人工智能18
模型的提供者施加義務
賦予各國當局要求訪問人工智能系統的訓練和培訓模型(包括基礎模型)的權力。此外,成員國有權尋求加強公民權利以對人工智能系統提出投訴,并有權獲得對基于高風險人工智能系統的決定的解釋
為支持創新,研究活動和免費、開源人工智能組件的開發在很大程度上不受《人工智能法》的約束(《人工智能法》最新立法進度圖)17
第
3
條(1)(1d):可被用于和適應各種非專門和特定設計的應用的
AI
系統。18
專門用于生成具有不同自治程度的復雜文本、圖像、音頻或視頻等內容的人工智能23(二)一般合規義務1.分層監管:系統要求(1)不可接受的風險人工智能系統:全面禁止《人工智能法》禁止以下類型的人工智能系統進入歐洲市場。(2)高風險人工智能系統:重點監管《人工智能法》將高風險人工智能系統分為以下兩大類。該法要求高風險人工智能系統完成事前合格評估以及包括風險管理、測試、技術穩健性、數據培訓和治理、透明度、人為監督和網絡安全在內的其他要求。24(3)有限風險人工智能系統19
:有限的透明度義務有限風險的人工智能系統只需遵守最低限度的透明度義務,使用戶能夠在知情的情況下作出決定。在與應用程序交互之后,用戶可以決定是否繼續使用它。用戶應該知道其正在與人工智能——包括生成或操作圖像、音頻或視頻內容的人工智能系統(生成式人工智能)互動。20(4)低風險或無風險人工智能系統:無額外法律義務19
如與人類交互的系統(即聊天機器人)、情感識別系統、生物識別分類系統,以及生成或操縱圖像、音頻或視頻內容的人工智能系統(即深度偽造)20
EU
AI
Act:
first
regulation
on
artificial
intelligence
|
News
|
European
Parliament
(europa.eu)25雖然擬議的《人工智能法》未對低風險或無風險人工智能系統施加限制,但其設想制定行為準則,鼓勵非高風險人工智能系統的提供者自愿適用高風險人工智能系統的強制性要求。2.主體義務(1)高風險人工智能系統相關主體義務1)
提供者、部署者及其他各方其中,基礎模型的提供者、生成式人工智能系統中的基礎模型的提供者或將基礎模型專門用于生成式人工智能系統的提供者有義務在基礎模型投放市場或投入使用后
10
年內,保留其技術文件并交國家主管機關使用。在以下
3
種情形發生時,其他當事方將被視為提供者,承擔使高風險人工智能系統合規的義務及上述《人工智能法》對提供者、部署者及其他各方施加的義務。同時,原供應商應向新供應商提供人工智能系統的技術文檔和所有其他相關且合理可預期的信息能力、技術訪問或基于公認的最先進技術的其他協助。262)
進口商3)
分銷商274)
部署者(2)與透明度相關的主體義務28(三)特殊合規義務除以上一般合規義務外,特定主體還存在與知識產權、進出口相關的特殊合規義務。供應商、部署者、分銷商、進口商、通用及生成式人工智能系統相關基礎模型的提供者在將高風險人工智能系統投放市場或投入使用前存在下圖所示的義務。1.提供者、部署者2.進口商3.分銷商294.通用及生成式人工智能基礎模型的提供者5.部署者不遵守《人工智能法》的制裁:根據侵權行為的性質、嚴重程度、持續時間、30后果、人工智能系統的目的、受影響人員的數量及受影響程度等因素,相關當事人可能被處以不同規模的行政罰款。個人最高可被處
4000
萬
罰款
4000
萬歐元或上一財政年度全球歐元罰款
年營業額的
7%(以較高者為準)公司將禁止的人工智能系統投放市場或投入使用不遵守高風險人工智能系統關于數據治理、透明度和提供信息給用戶規定最高可被處
2000
萬
罰款
2000
萬歐元或上一財政年度全球歐元罰款
年營業額的
4%(以較高者為準)違反其他對于人工智能系統或模型的要求和義務在答復請求時向公告機構和國家主管當局提供不正確、不完整或誤導性的信息最高可被處
1000
萬
罰款
1000
萬歐元或上一財政年度全球歐元罰款年營業額的
2%(以較高者為準)最高可被處
500
萬罰款
500
萬歐元或上一財政年度全球年營業額的
1%(以較高者為準)歐元罰款《人工智能法》還規定,成員國需制定罰則并采取一切必要措施,確保罰則得到適當、有效的執行。(四)監管動態近年來,已有多個包括意大利、法國、西班牙等多個歐盟成員國對
ChatGPT展開調查。時間國家監管機構GaranteCNIL性質措施事由合法性、透明度、未成年人數據處理、數據準確性合法性基礎、數據2023.3.31
意大利主動調查投訴驅動限時中止令被動調查2023.4.11法國31權利行使2023.4.14
西班牙AEPDBADI主動調查主動調查主動調查編制問卷透明度數據保護影響評2023.4.242023.4.20德國挪威估DatatilsynetDPC未開啟調查未開啟調查官方表態官方表態//2023.4.21
愛爾蘭(歐盟成員國對
ChatGPT
的調查情況表21)2023
年
3
月,歐洲消費者組織呼吁歐盟和各國安全、數據和消費者保護部門立即對
ChatGPT
和類似的聊天機器人展開調查。歐洲消費者組織副總干事Ursula
Pachl
說“像
ChatGPT
這樣的生成式人工智能為消費者提供了各種可能性,但是人們對這些系統如何欺騙、操縱和傷害人們表示嚴重關切。它們也可以被用來傳播虛假信息,延續放大歧視的現有偏見,或被用于欺詐。”222023
年
4
月
13
日,數據保護委員會決定成立一個專責小組(dedicated
taskforce),以促進合作,就數據保護當局可能采取的執法行動交流信息。23
最近,該小組正在調查
ChatGPT。(五)相關機構歐盟目前沒有專門針對人工智能監管的獨立機構,主要由歐盟層面及成員國層面不同領域的主管部門聯合監管和執法。最新的《人工智能法》草案要求成員國指定一個或多個主管機構,包括一個國家監管機構,負責監督《人工智能法》的應用和實施;并提議在歐盟層面建立由成員國和歐盟委員會的代表組成的新歐盟機構——“人工智能辦公室”,以期為21
此表引自微信公眾號“科技利維坦”《ChatGPT
在歐洲“被禁”的法律邏輯》一文,ChatGPT
在歐洲“被禁”的法律邏輯
()22
Investigation
by
EU
authorities
needed
into
ChatGPT
technology
(beuc.eu)23
EDPB
resolves
dispute
on
transfers
by
Meta
and
creates
task
force
on
Chat
GPT
|
European
Data
ProtectionBoard
(europa.eu)32《人工智能法》的統一適用提供指導、協調聯合跨境調查。在國家一級和跨境一級執行數據保護法的歐洲數據保護委員會(EuropeanData
Protection
Board)將從數據保護的角度對人工智能的數據處理行為進行監管,使《通用數據保護條例》得到遵守。國家市場監督機構負責進行市場監督、有責任在發現危險產品時采取適當措施。根據《人工智能法》,該機構將負責評估提供者、部署者、授權代表、進口商和分銷商對高風險人工智能系統的義務和要求的遵守情況。不合規的人工智能系統或盡管合規但對人員健康或安全、基本權利或其他公共利益保護構成風險的人工智能系統可能被采取禁用、限用、撤回或召回等糾正措施。由《市場監督條例(EU)2019/1020》建立的歐盟產品合規網絡(EU
Product
Compliance
Network,EUPCN)是負責在非食品領域執行歐盟產品立法的國家當局之間的主要合作論壇,確保各產品部門市場監督當局間的合作和信息交流,確定歐盟一級市場監督的優先事項,并發起協調或聯合舉措。根據查明的風險,海關可以在邊境拒收產品、實施銷售禁令或發布警告信息。如果產品已經在消費者手中,可以要求召回。所有這些措施都在“安全門”(safegate)上報告,從而迅速向系統內的所有國家當局傳播信息,方便其追蹤危險產品、在本國采取措施,確保歐洲單一市場的安全。國家消費者保護當局負責執行消費者保護法。歐盟委員會與歐洲數據保護委員會(EDPB)秘書處定期舉辦聯合研討會,討論消費者和數據保護執法人員共同關心的案件,并進一步加強他們的交流與合作。2020
年
7
月,消費者和數據保護主管部門志愿者小組成立,以在國家和歐盟層面促進交流,建立最佳做法和執法經驗。33五、美國(一)監管框架美國目前無論在聯邦還是州一級均尚未專門針對通用人工智能或生成式人工智能進行正式立法。部分州通過了與人工智能有關的立法,主要涉及視頻面試、與就業有關的自動決策、保護消費者權利、防止保險公司人工智能的算法歧視等問題。科羅拉多州、伊利諾伊州、佛蒙特州、阿拉巴馬州等州成立了專門小組或委員會對人工智能進行研究。以下是美國與人工智能高度相關的主要政策文件、治理框架、指南等。2019
年
2
月,美國總統行政辦公室發布《保持美國在人工智能領域的領導地位》,主張在聯邦政府、工業界和學術界推動人工智能的技術突破;減少人工智能技術安全測試和部署的障礙以便人工智能產業創新;培養公眾對人工智能技術的信任和信心,以維持美國在人工智能領域的領導地位。2020
年
11
月,美國總統行政辦公室發布《行政部門和機構負責人備忘錄——人工智能應用監管指南》。該指南用于規范在聯邦政府以外部署的人工智能系統,旨在為所有聯邦政府機構提供指導。指南要求,聯邦機構必須避免不必要地阻礙人工智能創新和增長的監管或非監管行動。在法律允許的情況下,聯邦機構在決定是否以及如何監管人工智能可能應用的領域時,應評估潛在監管對人工智能創新和發展的影響。2020
年
12
月,美國總統行政辦公室發布政策文件《促進可信賴的人工智能在聯邦政府中的使用》,主張聯邦機構應以培養公眾信任和信心的方式設計、開發、獲取和使用人工智能,同時保護隱私、公民權利、公民自由和美國價值觀。2021
年
6
月,美國政府問責局在《人工智能:聯邦機構和其他實體的問責34框架》中圍繞治理、數據、績效和監督等原則確定了問責實踐,以幫助聯邦機構和其他機構負責任地使用人工智能。(《人工智能:聯邦機構和其他實體的問責框架》示意圖)2022
年
10
月,美國白宮科技政策辦公室發布白皮書《人工智能權利法案的藍圖——讓自動化系統為美國人民服務》,列出了人工智能的五項基本原則,對應美國人民都應享有的五項核心保護。(五項核心保護)2023
年
1
月,美國商務部下屬機構美國國家標準與技術研究院發布《人工智能風險管理框架》及配套使用手冊。框架對人工智能的風險進行了界定,通過35四大模塊,幫助設計、開發、部署或使用人工智能系統的人更好地管理與人工智能有關的個人、組織和社會的風險。該框架的目標是提高人工智能系統的可信度——包括(人身、財產)安全、(系統)安全和彈性、(系統運行機制)可理解和(系統輸出結果)可解釋、隱私(保護)增強、有效和可信賴、隱私增強、透明及負責七大維度。24(《人工智能風險管理框架》四大功能示意圖)2023
年
3
月,美國版權局發布《包含人工智能生成材料的作品的版權登記指南》,介紹了版權局如何將《版權法》的“人類作者要求”(Human
AuthorshipRequirement)適用于此類作品的注冊申請,并為申請人提供指導。版權局明確《憲法》和《版權法》的“作者”僅指人類,只有存在足夠的“人類作者”要素的作品才能申請注冊并獲得版權保護,人工智能生成的內容應明確在申請外排除。版24
引自微信公眾號“清華大學智能法治研究院”《人工智能治理
|
美國
NIST《人工智能風險管理框架評述》一文,/s?src=11×tamp=1691565786&ver=4701&signature=1nEYbt9wsPpmhIeQG*gU8PCuHv*O3vCZidb0V56ghyye-oJfFrWzyFXq1-u76ud4faE2bEdx0uFGcXIKxBmhEiaqjrTBTE9FjjbaEai5QaaLdikB6itbUFK6R4uoXvC8&new=136權局將逐案審查人類在多大程度上創造性地控制了作品的表達并實際構成了“作者”要素。2023
年
5
月,美國國會研究服務部發布《生成式人工智能與數據隱私:初探》的報告,對生成式人工智能的定義、數據使用、數據來源等情況進行介紹,建議國會完善隱私立法、規范數據收集、加大對替代技術方法的研究與開發。美國國會研究服務部建議立法設置如下機制:
通知和披露機制:要求開發者在收集或使用個人數據之前獲得數據主體的同意并告知主體數據將用于何種目的
選擇退出的機制:對于尚未公開的數據,生成式人工智能的開發者應向用戶提供退出數據收集的選項
刪除和最小收集機制:用戶有權從當前數據集中刪除自己的數據,或規定個人數據的最長保留期限(二)一般合規義務雖然美國尚未針對通用人工智能及生成式人工智能系統及相關主體設定合規義務,但相關人工智能企業應考慮主管部門在不同領域出臺的指南、框架等文件,減少后續的調查和執法風險。聯邦貿易委員會消費者保護局局長在“人工智能和算法的商業指導”中提示企業在消費品中應用人工智能時應注意以下事項。2525
Using
Artificial
Intelligence
and
Algorithms
|
Federal
Trade
Commission
()372023
年
7
月
21
日
,Amazon,
Anthropic,
Google,
Inflection,
Meta,
Microsoft
和OpenAI
向美國政府自愿作出的一系列承諾亦可供企業參考。2626
FACT
SHEET:
Biden-Harris
Administration
Secures
Voluntary
Commitments
from
Leading
ArtificialIntelligence
Companies
to
Manage
the
Risks
Posed
by
AI
|
The
White
House38(三)特殊合規義務除以上一般合規義務外,特定主體還存在與知識產權、進出口相關的特殊合規義務。根據美國版權局《包含人工智能生成材料的作品的版權登記指南》,為包含人工智能生成材料的作品申請版權保護的申請人在不同的申請階段存在不同義務:在進出口方面,據路透社
2022
年
9
月
1
日的報道,芯片設計公司英偉達表示,美國官員要求其停止向中國出口兩種用于人工智能工作的頂級計算芯片。272022
年
10
月
7
日,美國國家工業和安全局發布了《中國超級計算機和半導體產品出口管制公告》28
,宣布對華人工智能和半導體技術出口管制政策。根據美國《出口管制改革法(2018
年)》的規定,在
2022
年
10
月
21
日至
2023
年
4月
7
日間出口、再出口或從國內轉讓超級計算機給中國企業前,出口商、再出口27/technology/nvidia-says-us-has-imposed-new-license-requirement-future-exports-china-2022-08-31/28
Public
Information
on
Export
Controls
Imposed
on
Advanced
Computing
And
Semiconductor
ManufacturingItems
To
The
People’S
Republic
Of
China
(Prc)
(Doc.Gov)39商或轉讓方須取得國家工業和安全局的臨時通用許可證。此外,出口商、再出口商或轉讓方須保留接收方的名稱、超級計算機在中國的目標地址及接收方總部的所在地。據《華爾街日報》2023
年
7
月
4
日的報道,美國政府計劃限制中國企業使用美國的云計算服務。29如果新規被采納,亞馬遜、微軟等美國云服務提供商向中國公司提供使用先進人工智能芯片的云計算服務前將需先征得美國政府的許可。商務部預計在未來幾周內實施這一限制。(四)監管動態2023
年
2
月
16
日,美國司法部和商務部工業與安全局成立了顛覆性技術打擊隊(Disruptive
Technology
Strike
Force),用以防止、起訴逃避美國對人工智能、三維打印、半導體、先進生物科學等關鍵技術出口管制的行為。302023
年
5
月
13
日,美國總統科學技術顧問委員會成立了生成式人工智能工作組,幫助評估關鍵機遇和風險,并就如何盡可能公平、負責和安全地確保相關技術的開發和部署提供意見。312023
年
6
月
22
日,商務部部長宣布美國國家標準與技術研究所將成立生成式人工智能公共工作組,幫助研究所制定關鍵指南,進而幫助企業應對與生成式人工智能技術相關的特殊風險。322023
年
7
月
13
日,美國聯邦貿易委員會啟動對
OpenAI
是否違反消費者保護法的調查,要求
OpenAI
提供有關其處理個人數據、向用戶提供不準確信息的29/articles/u-s-looks-to-restrict-chinas-access-to-cloud-computing-to-protect-advanced-technology-f77161330
Office
of
Public
Affairs
|
Justice
and
Commerce
Departments
Announce
Creation
of
Disruptive
TechnologyStrike
Force
|
United
States
Department
of
Justice31
PCAST
Working
Group
on
Generative
AI
Invites
Public
Input
|
PCAST
|
The
White
House32
Biden-Harris
Administration
Announces
New
NIST
Public
Working
Group
on
AI
|
NIST40可能性以及“對消費者造成損害(包括聲譽損害)的風險”的記錄。33(五)相關機構美國目前沒有專門針對人工智能進行監管的獨立機構,各領域主管部門將繼續執行現行美國法律及根據各領域特殊情況制定的政策、指南。美國商務部工業和安全局執行《出口管理條例》適用范圍內人工智能相關商品、軟件和技術的出口和再出口的法律、法規和政策。美國聯邦貿易委員會通過執行《聯邦貿易委員會法案》和許多其他法律法規,有權起訴人工智能侵犯數據隱私、數據安全、不公平競爭等行為。美國消費者產品安全委員會依據《消費者產品安全法》等法律有權監管消費品。美國消費者金融保護局負責制定、執行聯邦消費者金融法律,保護金融市場中的消費者免受不公平、欺詐或濫用行為的侵害及歧視。該局曾發布通告,確認無論使用何種技術(包括人工智能),聯邦消費者金融法律和不利行動要求(adverse
action)都將適用。33
/technology/2023/07/13/ftc-openai-chatgpt-sam-altman-lina-khan/41六、加拿大(一)監管框架加拿大擁有在不同領域規范人工智能的法律框架,包括《個人信息保護和電子文件法》《消費者隱私保護法》《加拿大消費品安全法》《食品和藥品法》《銀行法》《刑法》《機動車輛安全法》《加拿大人權法》和各省人權法等。與人工智能高度相關的主要法律、政策文件如下。2017
年,加拿大發布了世界上第一個國家人工智能戰略《泛加拿大人工智能戰略》,用于推進人工智能領域的研究和創新,助力加拿大成為人工智能領域的先行者和全球領導者之一。2020
年
11
月
12
日,加拿大隱私專員辦公室發布《人工智能監管框架:<個人信息保護與電子文件法>改革建議》。辦公室希望在獲得人工智能的好處的同時維護個人的基本隱私權。因此,辦公室建議:開發人工智能系統的人員應確保在設計系統時保護隱私;個人有權獲得幫助其理解人工智能系統對其作出的決定的解釋,該解釋應基于準確的信息,且不具有歧視性或偏見;個人應有權對自動產生的決策提出質疑;隱私和數據保護監管機構有權要求提供上述證據、發布具有約束力的命令及對無視隱私的企業實施經濟處罰。2022
年
6
月
16
日,加拿大創新、科學與工業部部長提出了
C-27
法案即《數字憲章實施法》,其中包括《人工智能和數據法》。《人工智能和數據法》是加拿大正式規范非聯邦政府機構的人工智能系統的首次嘗試,加拿大也因此成為歐盟以外的第二個正式將此類立法提交審議的國家。該法的關鍵定義和概念與歐盟《人工智能法》、亞太經合組織人工智能原則、美國《人工智能風險管理框架》等存在共通之處。該法的主要內容如下:42
采用類似歐盟《人工智能法》“基于風險的方法”,重點規范在國際和省際貿易和商業活動中使用的高影響(high-impact)人工智能系統的相關風險,規定了相關主體的義務,以確保在可能引入風險的每個點上都實行問責制
創新、科學與工業部部長被授權管理和執行該法,其有權下令制作與人工智能系統有關的記錄,并公布違規情況的有關信息
設立由新的人工智能和數據專員領導的辦公室,作為支持該法監管和執行的專門知識中心。在該法生效并調整生態后,專員的職能將逐步從單純的教育和援助轉變為包括遵守和執行
通過制定新的刑法條款,禁止魯莽和惡意使用人工智能、嚴重損害加拿大人及其利益的行為2023
年
6
月
23
日,曼尼托巴省法院(C
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
- 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- T/CCAS 016-2020水泥原料替代用冶金飛灰提鋅窯爐殘渣
- T/CCAS 007-2019水泥產能核定標準
- T/CATEA 005-2023丘陵坡地甘蔗機械化收獲技術規程
- T/CAQP 002-2017汽車零部件倉儲信息追溯編碼規范
- T/CAQI 66-2019車載空氣凈化器
- T/CAQI 315-2023山區多級一體化供水泵站技術規范
- T/CAQI 200-2021小型清潔生物質采暖爐具
- 2024年度江蘇省二級建造師之二建礦業工程實務模擬試題(含答案)
- 爾雅茶藝考試題及答案
- T/CAFFCI 68-2023化妝品滋養功效測試方法
- 2025年中央一號文件參考試題庫100題(含答案)
- 2025年中國經濟信息社福建分公司招聘筆試參考題庫含答案解析
- 《GIS實踐教學》課件
- 中國糖尿病防治指南(2024版)圖文完整版
- 《糖尿病酮癥酸中毒》課件
- 2023-2024學年天津市和平區八年級(下)期末數學試卷(含答案)
- 2021去遠方上海研學旅行方案申請及綜合反思表
- 新聞記者職業資格《新聞采編實務》考試題庫(含答案)
- 【MOOC】人工智能:模型與算法-浙江大學 中國大學慕課MOOC答案
- 《物理化學》第二章-熱力學第一定律課件
- 電力工程監理規劃
評論
0/150
提交評論