




版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
四部分提出了若干政策建議,包括(1)在治理目標上,實現算法可問責與算法經濟高質量發展;(2)在治理主體上,通過部際聯席會議制度形成算法治理合 (一)算法的定義和分類 1 (二)算法的經濟和社會價值 2 (三)算法的不確定性影響 4 (四)算法治理的概念界定與治理框架 9 二、域外(國際組織)算法治理的基本現狀與主要案例 10(一)歐盟算法治理現狀和案例 10 (二)美國算法治理現狀和案例 14 (三)新加坡算法治理現狀和案例 18 (四)國際標準組織在算法治理規則和實踐上的探索 19 (一)歐美算法治理實踐比較 20 (二)我國算法治理現狀分析 25 (三)比較視野下我國算法治理的現存問題 26 (一)在宏觀維度上,調試與完善算法治理框架 28 3.在治理對象上,建立一套共性的規則和標準后統籌考慮多元應用場景 (二)在微觀維度上,構建并適用全生命周期風險管理流程 32 (三)用例分析:醫療輔助算法和自動駕駛算法的治理與發展 34 算法概述與算法治理框架(一)算法的定義和分類法的分類根據不同維度,算法有不同的分類:(1)從算法范疇的維度看,可以分成 (AI)、機器學習(Machine-Learning)等基礎上產生的復雜“算法”,也包括簡相應預期結果的系統。(2)從算法技術邏輯的維度看,根據學習方式,機器學生環境的學習方式。(3)從算法應用的維度看,根據我國《互聯網信息服務算(二)算法的經濟和社會價值共.助力制造業智能化升級,提升生產效率:其一,保障生產安全。2.推動商業模式創新拓展,算法成為行業核心競爭力“互聯網+”的新經濟形態下,將更多的要素資源轉化為商業價值。對于2營銷正在成為數字時代的商業模式新常態。中國信通院發布的《大數據白皮書 此提升資源配置效率。應對復雜的外部環境。423.算法催生新業態,顯著拉動就業我國經濟結構的一大動力。根據中國信通院發布的《全球數字經濟新圖景(2020(三)算法的不確定性影響信息繭房數字鴻溝信息繭房數字鴻溝責任認定道德困境數字勞工財富再分配算法不透明算法偏見義為損失的不確定性。改變和重塑人類生活。個維度對算法風險進行分析(見圖1)。1.可能的社會風險:算法可能加劇“信息繭房”和數字鴻溝簽性”,從而加劇網絡社會的階層分化,形成新的數字鴻溝(DigitalDivide),重新排序、分類和分級,進而導致“信息繭房”現象的迅速蔓延與日益固化,基度大規模失業的潛在風險。斯坦福大學人工智能與倫理學教授杰瑞?卡普蘭在《人3.可能的法律風險:算法可能影響公平正義構方面優勢的不斷強化,傳統“國家-公民”二元主體框架下的金字塔型權力結構逐漸被打破,并型塑為“政府監管的制度權力、平臺運營商的技術權力與用戶享有的正當權利”的扁平化權力結構。在這種新型權力結構框架下,日常生活中用戶以交換個人數據而享受平臺公司應用的數字生活方式,隨著算法技術及其架4.可能的道德風險:算法可能引致“道德困境”和追責難題是為什么越來越多的人工智能專家強調“人在環中”(HumanintheLoop)的模(四)算法治理的概念界定與治理框架關于算法治理,學界有兩個研究方向:其一,算法治理(Algorithmic論“算法官僚”的問題。其二,治理算法(GovernanceofAlgorithms),即基于風險預防的理念,將算法及其運用場景作為治理對象,如討論“算法歧視”、“算法霸權”、“算法共謀”等問題。每一項人工智能技術背后都有一套算法支撐,算法2.算法治理五要素框架二、域外(國際組織)算法治理的基本現狀與主要案例(一)歐盟算法治理現狀和案例理的總體思路2019年由歐洲議會研究服務中心未來與科學和技術小組發布的《算法責任義義務。同時該報告強調了負責任研究與創新(ResponsibleResearchandInnovation)在促進實現算法公平中的作用和意義。在對既有案例梳理和技術問(1)應當提升公眾算法意識和素養,形成社會輿論的治理氛圍(2)建立算法影響評估機制(3)建立監管機制(4)實現全球協調治理2.歐盟對算法的治理框架和應用規則AI預和監督機制。第二,確保AI的穩健性和AI和結果的可追溯性,保證AI的決策結果可AI產品或接受服務。第六,鼓勵AI系統負擔3.歐盟將算法治理嵌入數據治理的框架中、限制處理權、反對權、4.歐洲算法治理最新案例:意大利禁止算法歧視(二)美國算法治理現狀和案例1.美國沒有采取集中的、命令控制式的治理方式2016年奧巴馬政府發布報告討論人工智能已有的和潛在的應用,以及人工即行政機構應該促進可依靠、魯棒的和值得信任的人工智能應用。(2)公眾參與,即公眾有機會提供信息和參與規則制定過程中的各個環節。(3)科學誠信和信息質量,即制定政策應基于可核驗的證據,并向公眾明確溝通。(4)風險(6)靈活性,即考慮到人工智能技術的快速變化,“僵硬的、基于設計的規則”即行政機構應該考慮人工智能部署的公平和非歧視的問題。(8)披露和透明,夠的情況下要求額外的披露。(9)安全,即行政機構應該注意人工智能任何潛在的安全風險,同時注意惡意部署和使用人工智能的風險。(10)跨機構合作,2.美國沒有統一的監管部門而由各個部門在自己職責范圍內規制算法聯邦貿易委員會(FederalTradeCommission,FTC)將其職責解釋為在國家的影響。聯邦食品和藥品管理局(FoodandDrugAdministration,FDA)針對人工智能的具體用途發布了一些指導文件,比如人工智能賦能(AI-powered)的醫DA工智能賦能的糖尿病篩查技術等。證券交易委員會(SecuritiesandExchange全納入現有的交通系統中,報告還討論了監管問題。美國國家科學基金會 美國國家標準與技術研究院(NationalInstituteofStandardsandTechnology,NIST)3.美國聯邦層面尚沒有就算法治理制定專門法律 (使用算法或人工決策進行)消費者信用信息的收集、信用報告的制作和獲取。1996年的《健康保險可攜帶性和問責法》(HealthInsurancePortabilityandAccountabilityAct,HIPAA)規定了醫療信息(包括個人可識別信息)的收集和該文件要求美國FTC制定和實施新規則,要求使用“自動化決策系統”的私人公RonWyden與參議員CoryBooker和眾議員YvetteClarke推出更新策提出質疑的記錄。該法案還提出,建議為美國FTC增4.美國州層面出臺算法治理的各類規章在自動駕駛領域,根據國家議會州立法(NationalConferenceofState法透明法案,并于2018年設立了“算法問責特別工作組”(AlgorithmicAccountabilityTaskFore),專門負責市政府使用算法的情況,就加強紐約市算5.美國的非政府組織和行業自律發揮作用對算法治理的討論,對算法治理起到重要作用。具體包括:(1)人工智能伙伴(PartnershiponArtificialIntelligence):該組織整合了研究機構、私人企業和非政府組織,討論人工智能促進公共利益的問題。(2)消費者報告組織:敦促企業和政府讓公眾對個人數據擁有更大的控制權。(3)美國公民自由聯盟:主要利等。(4)Up-turn:重點關注公平金融、刑事司法和數字權利方面的法律和政策。(5)人工智能現代研究所(AINow):研究人工智能對社會影響的法律和每年會發布相關報告。(6)美國程序代碼組織:關注通過數字技術增加各級政府的有效性和可訪問性。(7)民主與技術中心:研究制定與算法和公民自由相關的政策建議。(8)數據與社會研究所:致力于促進公眾關于以數據為中心的立了一家非營利性的人工智能合作組織(PartnershiponAI),且蘋果、英特爾賣給執法機關和軍方。該公司涉嫌欺騙消費者,違反了聯邦貿易委員會法案 (三)新加坡算法治理現狀和案例加坡發布人工智能治理框架模型者來說是可解釋的、透明的和公平的。該模型從四個方面闡述了適用于常見AI型框架是新加坡通過投資和建設AI能力來實現這一目標的努力的一部分。”2.新加坡就算法審計提出原則性要求英文完整版文件參見ModelArtificialIntelligenceGovernanceFramework(SecondEdition),載.sg/-/media/Files/PDPC/PDF-Files/Resource-for-Organisation/AI/SGModelAIGovFramework2.pdf.3.新加坡推動自愿性自我評估測試工具的研發和使用 括技術和非技術標準)、測試過程以及衡量指標,其中倫理原則包括了11項國明、可解釋、可復現、安全、魯棒、AdditiveexPlanations的AdversarialRobustnessToolkit和測試公平此外,新加坡當局還致力于搭建一個人工智能測試社群(Community),包。(四)國際標準組織在算法治理規則和實踐上的探索ISO/IECJTC1/SC42是負責制定人工智能國際標準的標準化組織(下面簡稱AI算法治理也是整個AI體系化ISOIECTS如何處IAI理組織在AI技術和系統的開發和應用過程中面工作,以支持可信賴(如關于可解釋性的ISO/IECTS6254,關于透明度分類的ISO/IEC12792,關于社會/個人影響評估的ISO/ISO42005,關于質量評估的系列)、生命周期過程(ISO/IEC5338)、測試(ISO/IECTS29119-11)等。三、歐美算法治理實踐比較與我國算法治理現狀分析(一)歐美算法治理實踐比較防范技術風險。室(OSTP)發布的《人工智能應用監管指南》(GuidanceforRegulationofArtificialIntelligenceApplications)重申了應少用“硬性”監管,鼓勵行政機構與私營部門合作。總《關于機器人民事法律規則的立法建議報告草案》(DraftReportwithRecommendationstotheCommissionCivilLawRulesonRobotics《歐盟人工智能政策》(ArtificialtelligentforEurope歐盟委員會《算法的可問責和透明的治理框架》 (AGovernanceFrameworkforAlgorithmicAccountabilityandency《可信任AI倫理指南》(EthicsinesforTrustworthyAI歐盟專家組《人工智能和民事責任》(ArtificialIntelligenceandCivilLiability)報告《人工智能法》(提案)歐盟委員會據規則+算法原則”構成了歐盟治理算法的制度體系,即通過“數據規則”實現算問權、對個人數據的更正權、對個人數據的刪除權(被遺忘權)、限制處理權、在歐盟,2019年發布的《算法責任與透明治理框架》(AGovernancemicAccountabilityandTransparency美AccountabilityTaskFore),其專門監督市政府使用算法的情況,監督場景包括Bill)禁止在線平臺通過算法歧視性處理個人信息。4.治理手段:歐盟和美國都提出了算法影響評估作為制度性工具果控制的原則,由責任人進行自我評估,算法影響評估(AlgorithmicImpactment類環境質量有重大影響的聯邦行動的提議”編制并公開發布環境影響報告書 歐盟GDPR規定了數據保護影響評估制度,歐盟《算法責任與透明治理框架》 求、個人信息及決策結果存儲的時間。(3)消費者對決策結果的獲取權和修改(5)算法主體采取的降低風險的措施。紐約大學AINow研究所發布的一份報關事項。(4)征求公共評論以澄清相關擔憂和答復相關問題。(5)為受影響的5.治理模式:歐盟和美國都采用多元主體參與、協同共治的模式發布報告建議人工智能的相關倫理問題可以通過透明度和自我規制伙伴關系來眾等發揮了重要作用。比如第三方非盈利組織“為了人民”(ProPublica)發現了一些量刑算法中存在的系統性歧視問題。人工智能伙伴(PartnershiponArtificialence谷歌、IBM和Facebook聯合成立人工智能合作組織(PartnershiponAI),共同(二)我國算法治理現狀分析法治理的“法治之網”雛形初步形成所謂“硬法”)要弱的準法律文件。軟法有多種表述形式,諸如“合作規制”、“自律規范”和“準規制”等。可以看到(見表3),我國已經初步形成一張算指導意見》《個人信息安全規范》《人工智能倫理安全風險防范指引》《深度學習算法評估規范》《遠程人臉識別系統技術要求》等能北京共識》2.現階段算法治理的重點問題和場景基本明確據殺熟、算法共謀、3.互聯網信息領域的算法治理主管機構得以確定(三)比較視野下我國算法治理的現存問題1.在治理目標上,現有規則缺乏體系性,治理目標不夠聚焦主體上,多部門“治理競爭”,未形成治理合力3.在治理對象上,重點規制市場主體,忽視公共主體的算法責任4.在治理手段上,以行政監管為主,對技術治理措施重視不夠任夠完善議(一)在宏觀維度上,調試與完善算法治理框架1.在治理目標上,實現算法可問責與算法經濟高質量發展技術界從技術角度增強算法的可解釋性,如技術界提出可解釋性人工智能 2.在治理主體上,通過部際聯席會議制度形成算法治理合力d監管機構,并對算法進行行政許可,要求“有實驗證據證明算法是安全和可靠的責2、社區管理不完善、要不同部門協同發力。3.在治理對象上,建立一套共性的規則和標準后統籌考慮多元應用場景官僚”指通過政府購買或以公私合作的方式介入政府公共管理過程的算法公司及其24.在治理手段上,善用技術治理措施“黑箱”的問題,業界也在開發技術方案,比如谷歌提出模型透明性工具“modelcardInterpretML師協會(IEEE)則提出“遵循倫理的設計”(EthicallyAlignedDesign),“遵循倫理的設計”包括兩個方面:第一,將價值和倫理標準程序化為代碼嵌入到系統中,并5.在治理模式上,優化多元主體參與的協同共治模式2立“吹哨人”制度,鼓勵企業內部人員監督舉報,并對“吹哨人”提供保護。總之,制定,引入第三方獨立的監督力量(見表4)。是科學知識的供給者,是人才的培養(二)在微觀維度上,構建并適用全生命周期風險管理流程流程和措施見下圖2法模型使用了有偏見、2.保障算法可問責。比如在用于信息安全、3.監督并適時調整模型2練和決策結果,實時跟蹤、審計和評估模型的功能。(見圖2)(三)用例分析:醫療輔助算法和自動駕駛算法的治理與發展2019年7月,我國成立人工智能醫療器械創新合作平臺,發布《深度學習 (1)醫療數據缺失妨礙醫療輔助算法大規模開發和利用的問題和建議2(2)以技術創新加強數據安全和個人信息保護的問題和建議是基于數據的算法。。2的(4)促進臨床試驗中使用人工智能技術的問題和建議藥品審評中心(CDE)發布《新冠肺炎疫情期間藥物臨床試驗管理指導原則(試訊技術,以受試者為中心開展臨床試驗。”(5)降低人工智能輔助醫療算法的市場準入壁壘的問題和建議2在醫療應用中成熟度低(指未上市或安全有效性尚未得到充分證實)的人工智能定、用藥指導、.自動駕駛算法業的發展。(1)自動駕駛汽車的市場準入問題和建議準入問題。雖然北京、2(2)自動駕駛汽車的法律責任規則問題和建議則存在規則缺失。(4)自動駕駛汽車的保險制度問題和建議2/42俞可平.全球治理引論[J].馬克思主義與現實,2002(01):20-32.AlexEnglerTheEUandUSarestartingtoalignonAIregulationEBOL].1)[2022-03-20]./blog/techtank/2022/02/01/the-eu-and-u-s-are-starting-to-align-on-ai-regulation/.eOfficeofthePresidentMaintainingAmericanLeadershipintelligenceEBOLhttps//documents/2019/02/14/2019-02544/maintaining-american-leadership-in-ar
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
- 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- T/CHES 54-2021取水權交易可行性報告編制導則
- T/CHCA 002-2024熱噴涂稀土合金復合涂層鋼筋
- T/CGCC 70-2022大宗商品電子交易異常事件監測規范
- T/CECS 10375-2024建筑幕墻用精密鋼型材
- T/CECS 10211-2022給水用電熔鋼骨架增強高密度聚乙烯復合管件
- T/CECS 10018-2019公用終端直飲水設備
- T/CCT 010-2021民用蘭炭產品規格及質量
- T/CCSAS 030-2023傳熱單元操作機械化、自動化設計方案指南
- T/CCMA 0047-2016盾構機操作工
- T/CAQI 124-2020家用和類似用途飲用水處理裝置安全使用年限
- 江蘇省南京師范大附屬中學2025年八下數學期末監測試題含解析
- 2025-2030年中國夜視攝像機行業市場現狀供需分析及投資評估規劃分析研究報告
- 2025年中考英語高頻核心詞匯背記手冊
- 危大工程巡視檢查記錄表 (樣表)附危大工程安全監管及檢查要點
- 四川省2025屆高三第二次聯合測評-生物試卷+答案
- 企業消防管理安全制度
- 2024年江蘇省淮安市中考英語真題(原卷版)
- 2025年中國樺木工藝膠合板市場調查研究報告
- 廣西南寧市新民中學2025屆七下生物期末監測試題含解析
- 廣東省廣州市黃埔區2021-2022學年七年級下學期期末英語試題(含答案)
- 《創傷性休克》課件
評論
0/150
提交評論