




版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
1611459根據議事規則第58條進行的聯合審議815a3b(1a)本條例應維護歐盟的價值觀,促進人工智能的利益在全社會得到人工智能系統(AI)可以很容易地部署在經濟和社會的多個部第114(2a)由于人工智能經常依賴于大量數據的處理,而許多人工智能系統16(2b)保護個人數據的基本權利尤其受到(歐盟)2016/679(歐盟)2018/1725號條例以及2016/680號指令的保障。第2002/58/EC號(2c)規則,包括(歐盟)2017/2394號條例、(歐盟)2019/1020號條例2001/95/EC2013/11/EU(2d)TFEU第4(2)(2e)本條例不應影響第2021/762/EC(3a)為了促進實現碳中和目標,歐洲公司應尋求利用所有可協助實現(4a)鑒于人工智能可能對社會產生的重大影響以及建立信任的需要,正如歐洲理事會所陳述[1],并確保維護道德原則,正如歐洲議會[2]所(5)(6a)人工智能系統通常具有機器學習能力,使其能夠適應并自主執行(6b)人工智能系統可以作為獨立的軟件系統,集成到實體產品中(嵌,第2016/679號條例(歐盟)第4(14)條中定義的生物識別數據的概念(7a)本條例中使用的生物識別概念應定義為自動識別人類的身體、生(7b)本條例中使用的生物統計分類概念應界定為根據自然人的生物統(8a)遠距離識別自然人被理解為將遠程生物識別系統與使用生物識別(9a)必須指出,人工智能系統應盡最大努力尊重一般原則,建立一個(9b)“人工智能素養”是指技能、知識和理解,使得提供者、使用者2000/31/EC(12a)公開共享的軟件和數據,用戶可以自由獲取、使用、修改和重新GDP650950(12b(12c)根據本條例,不應強制免費且開源人工智能組件的開發者遵守針(heChre(heGn)eclrtinAILE)A2019/216號指令修訂的不公平商業行為指令2005/29/EC(16a)根據已知或推斷的敏感或受保護的特征將自然人歸入特定類別219915010號指216a51d)項規定的規則約束、愛爾蘭不受根據《歐盟條約》165(1)條(d4516議定書第22a16本條例第5(1)條(d)點規定的規則的約束,或受其應用的約束,這些規45(26)(26b)不加區分地地從社交媒體或閉路電視錄像中爬取生物識別數據,(26c)人們對旨在檢測情緒、身體或生理特征(如面部表情、動作、脈(26d部門立法,如關于醫療設備的條例(歐盟)2017/745設備的條例(歐盟)2017/7462006/42/EC。被確(28a兒童擁有《歐盟憲章》第24條和《聯合國兒童權利公約》(在《聯合國兒童權利公約》關于數字環境的第25號一般性意見中得到進一步闡300/2008[3]167/2013號條例[4]范圍內的產品或系統、歐洲議會和理事會第168/2013號條例(EU)[5]、歐洲議會和理事會第2014/90/EU號指令[6]、歐洲議會和理事會第2016/797號指令[7]、歐洲議會和理事會第2018/858及歐洲議會和理事會的(EU)2019/2144[10]適用范圍內,考慮到本條例規定的高風險AI系統的強制性要求,在未來根據這些法案5[11]6(32a)其人工智能系統屬于附件三所列領域和用例之一的供應者,如果根據第2016/679號條例,生物識別數據構成特殊類別的敏感個1年(37a會和理事會第2013/32/EU號指令[13]、歐洲議會和理事會第19671311951728(40)9(40b)考慮到使用被指定為超大型網絡平臺的社交媒體平臺所提供的條例應能使這些超大型網絡平臺遵守歐盟2022/2065號條例第34條(歐盟)2022/2065(歐盟)2022/20652022/2065號條例指定的機構應作為執行本規定的執法機構。(41a)歐洲、國家和國際層面的一些具有法律約束力的規則已經適用于(20201012-結論,EUCO13/20,2020,第6頁。202010202008311規則和廢除第2320/2002號條例的第300/2008號條例(OJL97,9.4.2008,第72頁)。201325市場監督的第167/2013號條例(OJL60,2.3.2013,第1頁)。2013115批準和市場監督的第168/2013號條例(OJL60,2.3.2013,第52201472396/98/EC2014/90/EU(OJL257,28.8.2014,p.146)。性的指令(EU)2016/797(OJL138,26.5.2016p.44)20185302018/858,修訂條例(EC)No715/2007和(EC)No595/2009并廢除指令2007/46/EC(OJL151,14.6.2018,第1頁)。2018年7月4日歐洲議會和理事會關于民用航空領域共同規則和建立歐盟航空安全局的(EU)2018/1139號條例,并修訂(EC)NoNo376/20142014/30/EU2014/53/EU號指令,并廢除歐洲議會和理事會第(EC)No552/2004和(EC)No216/2008條例以及理事會第(EEC)No3922/91條例(OJL212,22.8.2018,p.和理事會第(EU)2018/858EC)78/2009(EC)No79/2009和(EC)No661/2009的歐洲議會和理事會條例以及委員會條例(EC)No631/2009、(EUNo406/2010、(EUNo672/2010、(EU)No1003/2010、(EUNo1005/2010、(EU)No1008/2010(EU)No1009/2010,(EU)No19/2011,(EU)No109/2011,(EU)No458/2011,(EU)No65/2012,(EU)No130/2012,(EU)No347/2012,(EU)No351/2012,(EU)No1230/2012and(EU)2015/166(OJL325,16.12.2019,p.1).歐洲議會和理事會2017年4月5日關于醫療器械的(EU)2017/7452001/83/ECEC)178/2002號指令(OJL117,5.5.2017,第1頁)。201745(OJL117,5.5.2017,p.176)2016/679、指令2016/680和條例(歐盟)2018/1725規定的所有適(45a)在人工智能系統的整個生命周期中,必須保證隱私權和保護個人(46a(46b)為了實現本條例的目標,并在確保內部市場順利運作的同時,為(53a)作為《聯合國殘疾人權利公約》的簽署國,歐盟和所有成員國在障礙要求,包括歐洲議會和理事會的第2019/882號指令和第2016/2102號指令。提供者應確保在設計上遵守這些要求。因此,必ISO9001(58a)雖然與人工智能系統有關的風險可能來自這種系統的設計方式,2022/1925DIY套件或提供對模型服務架構的付費訪問來開發和訓練(60a)如果一方處于較強的談判地位,那么在談判使用或整合在高風險(60b(60c)此外,關于不公平合同條款的規則只應適用于合同中與供應用于(60)(60e)(60f)如果基礎模型是作為一種服務提供的,如通過API(60g(60h)鑒于基礎模型的性質,合格評估方面的專業知識是缺乏的,第三2001/29/EC2004/48/ECR(歐盟)2019/790號指令。(61b(61c)當人工智能系統打算在工作場所使用時,統一的標準應限于技術(61d)在某些條件下,當不存在相關的統一標準時,或者為了解決具體(61e)(65aWTO)《技術性貿易壁壘協定》中的承高風險人工智能系統應貼上CE標志,以表明其符合本條例的規貼上實體CE標志,并可輔以數字CE標志。對于只有數字的高風險人工智能系統,應使用數字CE求并帶有CE55([16](72a)本條例應提供法律依據,只有在符合(歐盟)2016/679號條例第6(4)條和(歐盟)2018/17256盟)2016/6804(2數據用于開發人工智能監管沙盒內符合公共利益的某些AI系統。沙盒時或永久中止其參與沙盒的行為決定是否根據第2016/679號條例第83(2)2016/68057(72bAI、A和NSA一起,為AI行。它還應代表其成員國參加AI辦公室的管理委員會。為了提高成員(77a家主管部門、委員會和AI辦公室合作。(77b)每個國家監督機構的成員或工作人員應根據歐盟或成員國的法言,國家監督機構應具有與(歐盟)2019/1020號條例規定的市場監息。洲議會和理事會第2013/36/EU號指令下適用于信貸機構的規則之間的一致性[17和文件方面的一些程序性義務納入第2013/36/EU號指令下的現有義受指令2013/36/EU監管的信貸機構。(80)02001/95/EC指令將作為一個安全網適用。2004/48/EC時執行知識產權。(84a)由于自然人和法人以及自然人群體的權利和自由可能受到人工(84b)當部署者使用高風險人工智能系統來協助決策或做出與自然人(84c)歐盟關于保護舉報人的立法(指令(歐盟)2019/1937)完全適用于險AI系統的規定。特別重要的是,委員會在其準備工作中要進行適當的磋商,包括在專家層面的磋商,而且這些磋商要按照2016年4月13日《關于更好地制定法律的機構間協議》中規定的原則進行。這些(85a)鑒于技術的快速發展和對高風險人工智能系統進行評估所需的552182/2011(歐盟)行使。(87a85用,因此關于通知機構和治理結構的規定應從……[執行部分--請插入期--本條例生效后12個月]開始適用。根據(歐盟)2018/172542(2)條,咨詢了歐洲數據2021618201210251673/2006/EC(OJL316,14.11.2012p.12)20164272013626信貸機構和投資公司審慎監管的第2013/36/EU號指令,修訂了第2002/87/EC2006/48/EC2006/49/EC(OJL176,2013627338)第1條關于人工智能系統(“AI)在歐盟的投放市場、投入使用和(ea)支持創新的措施,特別關注中小企業和初創企業,包括建立監管2(ca)將第5(cb)人工智能系統的進口者和分發者以及人工智能系統供應者的授權(cc)3(8a)條定義的受影響者,其健康、安全或基本權利產品或系統并屬于附件二-B節所列的協調立法的范圍,僅適用本條例第84條:委員會根據(歐盟)2016/680362016/67945條(充分性決定)通過的決定的對象,或者是歐盟與該第三國或國本條例不應影響歐洲議會和理事會第2000/31/EC節規定的關于中介服務提供者責任的條款的適用[1][將由《數字服務5(9)5C()045653“人工智能系統”(AI系統)是指基于機器的系統,它被設計為以不(1a(1b)“重大風險”是指由于其嚴重性、強度、發生概率和影響持續時(1d)“通用人工智能系統”是指可用于和適應廣泛的應用的人工智能(1e)“大型訓練運行”是指一個強大的人工智能模型的生產過程,對(8a)“受影響的人”指受人工智能系統影響或以其他方式受影響的任(14)“產品或系統的安全組件”,根據附件二所列的歐盟協調立法,(19)CECE“市場監督機構”是指根據(歐盟)2019/10201025/20122(1)(c)條中定義(33a(33b)“生物識別”是指自動識別人的身體、生理、行為和心理特征,(33c)“生物識別驗證”是指通過將個人的生物識別數據與先前提供的(33e)“特殊類型的個人數據”是指(歐盟)2016/6799(1)條并代表該成員國參加AI辦公室的管理委員會;(ba(44a)“個人數據”是指(歐盟)2016/67941)點中定義(44b(44c)“畫像”是指(歐盟)2016/679號條例第4條第(4)點所定義的任34是指(歐盟)2018/172535(44d(44e)(44f)“具有歐盟性質的廣泛侵權行為”是指已經損害或可能損害至少(44h(44i)“關鍵基礎設施”是指為提供歐洲議會和理事會2022年12月14EU)2022/25572(4)條意義上的(45c)“社會評分”是指根據自然人的社會行為、社會經濟地位或已知(45d(45e)“行業先進實踐”是指在某一特定時間內,根據科學、技術和經(45f)“在真實世界條件下的測試”是指在實驗室或其他模擬環境之外4a第15(2b14dAI第5條(ba)將根據敏感或受保護的屬性或特征或根據這些屬性或特征的推斷(da(db)將人工智能系統投放市場、投入使用或使用,通過無針對性地從(dc)在執法、邊境管理、工作場所和教育機構中,將人工智能系統投4.(e)投入使用或使用人工智能系統,通過“后”遠程生物識別系統分83(1)條定義的特定嚴重AIAI第6條623則應承擔責任,并根據第71條規定處以罰款。7委員會有權根據第73條采取授權行動,通過增加或修改高風險人工111a(aa(ea)(ga)有效的技術解決方案和機制的可用性和使用程度,以控制人工智(gc)人類監督的程度,以及人類為推翻可能導致潛在傷害的決定或建(ii)2a.在為第1款或第1a1aAI第8條1a82b承認的技術水平,包括第40和41條所述的相關協調標準和共同規格可合理預見的濫用行為和第9條所述的風險管理系統。2a.只要附件二A231、23于附件二AA92(a61解決根據本段a和b項確定的風險。第2款(c)項中提到的風險管理措施應適當考慮到綜合應用本第二章第2款(c)項中提到的風險管理措施應使得與每個危險相關的殘余風17U1至8102525(aa(fa范圍內,這些系統的提供者可以例外地處理(歐盟)2016/6792款。第11條當與附件二A節所列法律行為適用的產品有關的高風險人工智能系委員會有權根據第73條通過授權法案,在必要時修正附件四,以確3a2013/36/EU7412條記錄保存294612a高風險人工智能系統的設計和開發應具有記錄功能,能夠記錄能源1(a)151a.為解決如何衡量本條第1款規定的適當的準確性和穩健性水平的技第56條第2款(a)項規定的事項提供無約束力的指導。第16條2(aa)在高風險人工智能系統上標明其名稱、注冊名稱或注冊商標,以(ab)確保被指派對高風險人工智能系統進行人為監督的自然人特別了(ac)提供輸入數據的規格,或所使用的數據集方面的任何其他相關信20(ea)根據第48(eb)根據第49CE確保高風險AI172013/36/EU7440202013/36/EU74第21條43第22條65123密,并按照第70條規定的保密義務處理。24如果與附件二A節所列法律行為適用的產品有關的高風險人工智能系第25條1a.被授權的代表應居住在在或設立在根據第21(cb)款開展活動的(aa)將歐盟合格聲明、技術文件的副本,以及在適用的情況下,通知63(7)條所指的國家當2(ca51是由提供者自己進行的,確保附件八第3點所述的信息是正確的。2643(ca25(1)條任命了授權代表。高風險人工65(1)條意義上的風險,分發者應立即通知該系統的12816條規定的提供者的義務:(ba為第6條規定的高風險人工智能系統。1a)至(ba)點提到的情況,就本條例而言,最初將人工232016/94328a之間造成了嚴重的不平衡,則為不公平。如果一項合同條款具有第7128a28條40守第16條和第28.1條規定的義務;根據附件八C60在第58a(新)條所述的基準指導和能力中。基礎模型的提供者應在其基礎模型投放市場或投入使用后的10將第1(c)款所述的技術文件保留給國家主管部門使用;5212925i)141、1a、1b1c1、1a、1b1c關時根據第61條通知提供者。當他們有理由認為按照使用說明使用可能導致人工智能系統出現第65(1)條意義上的風險時,他們應在沒有無用該系統。當他們發現任何嚴重事故或第62條意義上的任何故障時,第62條應比照適用。2013/36/EU745b.高風險人工智能系統的部署者如果是第51條第1a(b)項所述的公5113提供的信息來履行其義務,根據(歐盟)2016/67935(歐盟)2016/680號指令第27條進行數據保護影響評估,應公布其62c29a2(j)家監督機構。根據第65條和第67條,國家監督機構在調查在國家一1款所列標準,應進行新的基本權利影響評估。1在第51(1a)(b)條所述的公共當局或企業的部署者應公布影響評估的結果摘要,作為根據第51(2)條規定的義務進行使用備案的一部分。盟)2016/680271[1]200068特別是電子商務的某些法律問題的第2000/31/EC號指令("關于電子商務的指令")(OJL178,17.7.2000,p.1)。第30條成員國可指定(EC)765/20082003/361/EC31333第32條3123第33條43以及根據關于在歐盟范圍內實現高度共同的網絡安全的措施的第XXX網絡安全要求,該指令廢除了(歐盟)2016/1148號指令。12的12個月內不向他們提供此類服務。028通知主體應向第30條所述的通知機構提供并應要求提交所有相關343335第36條如果通知機構懷疑或被告知某通知主體不再符合第33再符合第33條規定的要求,或者它未能履行其義務,它應根據失誤的37第74條第2款所述的審查程序通過。3839第40條1025/2012定其符合本編第2章或第28b條規定的要求,只要這些標準涵蓋這些1a1025/2012102員會應咨詢AI辦公室和咨詢論壇。1c.參與標準化進程的行為者應考慮到第4(a)條規定的值得信賴的人工1025/2012號條例(歐盟)5、67第41條1a742商后,就本編第2章或第28b條規定的要求采用共同規格:21a1b40(1c1b在根據本條第1a和1b款采用共同規格時,委員會應考慮本條例第符合第1a1b符合本編第2章規定的要求,只要這些共同規格涵蓋這些要求即可3a如果歐洲標準化組織通過了一項協調標準并建議委員會在《歐盟官方公報》上公布其參考文獻,委員會應根據(歐盟)1025/20121a1b242符合第10條第4款規定的相關要求。2019/881(EU)[1],在網絡安全15第43條41不存在第40條所指的、其參考編號已在《歐盟官方公報》上公布4163(5)或(6)條提及的市場監督機構(如適用)18的參與。對于附件三第5(b)點提及的高風險人工智能系統,由第作為該指令第97至101條提及的程序的一部分進行。A2件七第4.3、4.4、4.5點和第4.6點的第五段也應適用。233(4)、(9)和(10)條規定的要求已在這些法律行為的通知程如果附件二A節所列的法律行為使產品制造商能夠選擇不參加第三方制造商只有在同時采用涵蓋本編第2412(f委員會有權根據第73條通過授權行為,以更新附件六和附件七,以候,委員會應與AI辦公室和受影響的利益攸關者協商122第8IAI442454647通過對第43條的克減,任何國家監督機構可要求司法機構授權在有11215作為對第1至5(歐盟)2017/745(歐2017/746第54條也應適用于對符合本編第二章規定的要求進行的克4810年內,由國家監督機構和國家主管部門保管。歐盟合格聲明的副本27349CECE1CE1款所述的CEEC)765/200830CE定要貼上CECE第50條1051601b.1a60備案使用第6條第2款所述的高風險人工智能系統;第53條AI1d.人工智能監管沙盒應根據第53條a構的監督范圍,國家數據保護機構,或在第1b款提及的情況下,歐盟然而,只要潛在的提供者尊重第1c段中提到的具體計劃以及參與的條53a1273自愿適用第69條所述的行為守則;EDPS建立的監管沙盒的參與在整個歐盟范圍內相互統一承認并具有相54(iiia2016/67935(歐盟)2018/172535第154a第56條56a56bAI律行為的可能協調;(v)趨勢,如歐洲在人工智能方面的全球競爭力、向委員會提出關于受禁止實踐的分類、附件三中提到的高風險AI694a條例第28b條的規定,并討論行業自我治理的最佳做法。任何此類會56c(EC)1049/2001號條例應適用于AI第57b條57b57c第57條第58條關者的意見,特別是在第56條f款(b)項規定的任務方面。到透明度的需要,按照第2款規定的標準,任命咨詢論壇的成員。第58a條第15條(1a)款中提到的歐洲基準測試機構和人工智能辦公室應與國際第59條3全的措施的第XXXX/XX(NIS2)為被確定為基本服務運營商2016/1148號指令。59a第60條22a6(2512a.附件八B部分所列的數據,應由作為或代表公共當局或歐盟機構、機構,或代表他們的部署者,或部署者是第51(1a)(b)和(1b)條中提到第61條定詳細規定,在[生效后12個月]之前確定市場后監測計劃的模板和計1、235(b)點中提及的由第2013/36/EU號指令監管的信貸機構投放市場或投入使用的高第62條可能性之后,在任何情況下,不遲于72小時(在提供者或[如適用]部系的合理可能性,提供者應根據第21條采取適當的糾正措施。64(3)條中提及的國家公共當局或機構。委2a17631.(歐盟)2019/1020對(歐盟)2019/1020盟)2019/1020號條例規定的市場監督機構相同的權力和義務。對于與附件二A節所列法律行為適用的產品有關的高風險人工智能2016/680641702a.第1款和第22019/1020(歐盟)第18條所享有的程序性權利。33AI如果第33國家公共機關或第365164364364315如果人工智能系統的經營者沒有在第24041(ba)不遵守第5(bb)不遵守第522019/102018566如果在收到第65(5)條所述的通知后三個月內,或在不遵守第5條所述的禁止人工智能做法的情況下30天內,一成員國的國家監督機構對59a(4)條所述的情3或在不符合第5條所指的禁止人工智能行為的情況下,從第65(5)條所指的通知開始,在60天內決定,并將此決定通知有關成員國的國家監于本條例第40條和41條中提到的統一標準或共同規格的缺陷,委員會應適用第1025/2012號條例(歐盟)第11條規定的程序。66a或影響或可能影響到一個以上成員國的至少4500AI67家公共機構充分合作,進行了第65條規定的評估后,發現雖然人工智提供者或其他相關經營者應確保在第116849條規定加貼CE沒有貼上CE(ea)沒有技術文件;監督機構應立即將不遵守規定的情況和采取的措施通知AI辦公室。第三a章68a據第78條采取司法救濟措施的可能性。68b在不影響任何其他行政或非司法救濟措施的情況下,如果根據第59條主管的國家監督機構不處理投訴或不在三個月內將根據第68a條提68c131112016/67913、14、152268d在關于保護消費者集體利益的代表行動的(歐盟)2020/1828號指令規則(人工智能法)并修正某些歐盟立法法案的xxxx/xxxx條例”。68e歐洲議會和理事會第(EU)2019/1937第70條2004/48/EC2016/943/ECba.公共和國家安全利益1a.根據第1在不影響第1款和第1a款的情況下,當執法、移民或庇護當局使用1、671、676356(如11a271有效的執行,并與委員會和人工智能辦公室根據第82b條發布的準則成員國應在[本條例生效之日起12個月內]將這些規則和這些措施通財政年度全球年總營業額的7%,以較高者為準;財政年度全球總營業額的4%,以較高者為準。51013財政年度全球年總營業額的2%,以較高者為準。500則最高為其上一財政年度全球年營業額的1%,以較高者為準。(ca(cb(cc)(cd)(cf)(cg)(ch)72(ab)歐盟機構、機關或團體的責任程度,同時考慮到它們實施的技術(c(ca(cb)本機構的年度預算。51506a.歐洲數據保護監督員應每年向AI第73條第4條、第7(1)條、第11(3)條、第43(5)和(6)條以及第48(5)條中第4條、第7(1)條、第11(3)條、第43(5)和(6)條以及第48(5)條中3a2016413根據第4條、第7(1)條、第11(3)條、第43(5)和(6)條以及第48(5)第74條75“在采取與歐洲議會和理事會第YY/XX號條例[關于人工智能]所指的767778“4.YY/XX[關于人工智能]條例所指的安全12379“12.在根據第11180“4.在根據第3款通過有關人工智能系統的授權行為時,這些系統是歐(EUYY/XX81(1)在第17“3.21實施法案時,這些人工智能系統是歐洲議會和YY/XX[關于人工智能]條81a對(歐盟)2019/1020(歐盟)2019/1020號條例修訂如下:在第14(4)條中,增加了以下一段:“(l)82第82a條根據第75、76、77、78、79、80、81和82條的修正案,考慮到本82b8-152828b附件三所指的人工智能系統的輸出會對第六條第2款所指的自然1228b3(b)的83IT之前已經投放市場或投入使用,則應在4例規定的要求。本條例規定的要求應在對附件九所列法律行為所建立本條例應適用于在[第85(2)條所指的本條例適用日期]之前已投放市這些系統須進行第3(23)條所定義的實質修改。對于擬由公共當局使用第84條在[第(271第1款所述的行政罰款情況(ba(bb)(bd)(be)執行關于人工智能的協調計劃,考慮到成員國之間的不同進展水(bf)在附件四和第28b(b)(bh)第28a3a85(2)條中提到的本條例開始實施兩年后],委員會應評估人工智85(2147a145527b.根據本條第7款對本條例進行的任何修正,或未來的相關授權或實B第85條2ENIS(526/2013號條例(網絡安全法)(OJL151,7.6.2019,p.1)。A20065172006/42/EC20096182009/48/EC(OJL170,30.6.2009,120131120工具并廢除94/25/EC號指令的第2013/53/EU號指令(OJL354,28.12.2013,p.90);2014226梯安全組件的法律的第2014/33/EU號指令(OJL96,29.3.2014,p.2014226爆炸性環境的設備和保護系統的法律的第2014/34/EU號指令(OJL96,29.3.2014,p.309);20144161999/5/EC2014/53/EU令(OJL153,22.5.2014,第62頁);20145152014/68/EU(OJL189,27.6.2014,p.歐洲議會和理事會201639指令的(EU)2016/424(OJL81,31.3.20161歐洲議會和理事會2016年3月9日關于個人防護設備和廢除理事89/686/EEC(EU)2016/425(OJL81,31.3.2016,第51頁);201639除第2009/142/EC號指令的條例(EU)2016/426(OJL81,2016年3月31日,第99頁);201745(OJL117,5.5.2017,p.(OJL117,5.5.2017,p.176)2008311則和廢除第2320/2002號條例的第300/2008號條例(OJL97,9.4.2008,第72頁)。歐洲議會和理事會2013年1月15日關于兩輪或三輪車和四輪車的批監督的第167/2013號條例(OJL60,2.3.2013,第1頁);201472396/98/EC2014/90/EU(OJL257,28.8.2014,p.2016511的指令(
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
- 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 醫療信息系統中的教育數據安全防護
- 商業培訓中的教育技術應用及效果評估
- 水分循環模型優化-洞察及研究
- 社會融入與殘疾人福利保障體系-洞察闡釋
- 教育實踐中的學生興趣與未來職業探索
- 促進學科學習深度如何運用智能機器人優化學科教育體驗
- 教育心理學在提高教學效果中的作用研究
- 教育信息化政策在課堂中的應用
- 氣候變化對城市發展的影響-洞察闡釋
- 安全生產管理人員的基本條件
- 2023年副主任醫師(副高)-腫瘤內科學(副高)考試歷年真題摘選帶答案
- 2023年04月上海科學院事業單位工作人員招考聘用筆試題庫含答案解析
- 九宮格數獨題目
- 三基題庫之婦產
- 心衰中醫護理方案
- 三年級數學 找規律
- 消防設施操作員初級、中級技能考核評分標準
- GB/T 10095.1-2022圓柱齒輪ISO齒面公差分級制第1部分:齒面偏差的定義和允許值
- GB/T 5161-2014金屬粉末有效密度的測定液體浸透法
- 變電站交、直流系統培訓課件
- 《工業固廢資源化技術及應用》課程教學大綱
評論
0/150
提交評論