<address id="ztrdl"></address>

    <sub id="ztrdl"><var id="ztrdl"><mark id="ztrdl"></mark></var></sub>
      <address id="ztrdl"><listing id="ztrdl"></listing></address>

      <sub id="ztrdl"><dfn id="ztrdl"><ins id="ztrdl"></ins></dfn></sub>

      <sub id="ztrdl"><dfn id="ztrdl"><mark id="ztrdl"></mark></dfn></sub>

      <sub id="ztrdl"><var id="ztrdl"><ins id="ztrdl"></ins></var></sub>
      <sub id="ztrdl"><dfn id="ztrdl"><ins id="ztrdl"></ins></dfn></sub>
        <sub id="ztrdl"><dfn id="ztrdl"><mark id="ztrdl"></mark></dfn></sub>

        【凱原學者之聲】季衛東:數據、隱私以及人工智能時代的憲法創新

        [ 作者]: 季衛東 [ 發布時間]: 2020-08-11 [ 來源]: 《南大法學》

        字號: [] [] [] [ 閱讀]:4693人次      [ 關閉窗口]

        編者按:長期以來,凱原法學院學者關注國家改革和發展,關心民生,積極服務國家及政府,在國內外新聞媒體、期刊雜志等平臺發表各類特約、評論文章,引發各界廣泛關注。

        季衛東教授在《南大法學》發表文章《數據、隱私以及人工智能時代的憲法創新》。他指出,過度強調隱私會限制個人數據的收集和應用,使人工智能難以迅速進化;反之,則會造成機器官僚主義的獨裁、問責機制的瓦解——這是當今憲法學的一個悖論。他認為,隨著機器學習能力不斷加強,算法黑箱化問題日益嚴重,以技術制衡技術將成為自然人對機器人進行間接管制的重要方式。疫情防控中智慧網絡用于社會基層治理的實例和外國電子政府的經驗也證明:把集權式的人工智能算法與分權式的區塊鏈協議結合起來進行合理的機制設計,有可能成為新時代憲法秩序變遷的方向。文章發表于2020年第01期。

        文章全文如下:

         

        數據、隱私以及人工智能時代的憲法創新

         

        一、序言:算法獨裁與數字人權的對峙

        在當今社會,人工智能的應用范圍已經越來越廣泛,顯著提高了生產的效率和生活的品質。當然這種便利性也是有代價的。從現代憲法學的角度來看,這種代價主要是犧牲隱私。把海量數據、圖像等個體信息提供給計算機學習和處理,以便對行為進行預測和模仿,因而人工智能系統勢必大量吞吐和咀嚼隱私。但隱私正是個人自由的基礎。也就是說,高度進化的電子計算機有可能在相當程度上以算法獨裁(Algocracy,John Danaher的表述)的方式限制甚至剝奪個人的自由,會以效率、便利、娛樂等不同誘因促使人們不斷放棄既有的基本權利。這種代價也包括會思考的機器將大幅度取代人類的行為、冒犯人格的尊嚴,人機混合實際上正在招致人的動物化、機械化,并在根本規范層面引起了關于人道、正義以及倫理的一系列兩難問題。另外,這種代價還包括算法黑箱化導致問責機制的削弱、蛻變以及瓦解,使限制權力的現代法治精神難以落實。

        據報道,到2017年年底為止我國城市設置的攝像頭達到17000萬個,其后還將大幅度增加。由于不像歐美那樣對人臉識別技術進行嚴格限制,也沒有使用圖像數據必須經過本人許可的程序,中國根據海量圖像數據進行人工智能研究的績效的確非常突出,已經達到世界頂級水平。這種獨特的條件使人工智能系統的深度學習能力超強,并能把有關成果迅速應用于經濟和社會治理的各個方面,然而也加劇了算法黑箱化的程度。如果我們希望避免粗暴的數據攫取和算法獨裁,希望按照以人為本的原則發展一種可信賴、可說明的人工智能,希望防止公權力以智能化決定的名義轉嫁或推卸責任的流弊,那就必須注重與人工智能以及物聯網、大數據相關的憲法學研究,認真探索在高科技時代切實保障公民基本權利,特別是個人信息安全和隱私權的方式和舉措。

        20196月,陌陌網絡科技公司推出的智能軟件“ZAO——逢臉造戲,通過一張正面照就可以制作各種熱門表情包和經典電影片段,曾經轟動一時。但在用戶協議中有一個格式條款要求消費者把肖像權完全免費、不可撤銷、永久地授予該公司,并允許該公司及關聯公司在全球范圍內進行網絡信息傳播、轉授權以及再許可,引起媒體一片批評并導致工信部在同年9月采取監管行動。同年10月,浙江理工大學一位副教授對杭州野生動物世界強行采用人臉識別技術進行檢票提起訴訟,以維護個人信息安全以及年卡合約的效力。上述現象說明,中國社會對任意收集和使用個人圖像數據的風險意識提高了,人工智能時代的憲法權利正在成為非常突出的社會問題,因而我們有理由把2019年視為中國數字人權元年。

        二、人工智能對現代憲法體制的挑戰

        1)大數據與人工智能的正比例關系

        馬云曾經把數據比喻為21世紀的石油,即具有最重要經濟和社會價值的生產資料。要想從海量數據中搜尋出有用的信息、甄別和防控風險、實現數據內在的價值,就必須改進網絡架構、提高數據處理能力,這就需要強大的計算機信息處理系統。因此,第四次產業革命勢必以人工智能為基本特征,造就一個萬物互聯互通、靠數據驅動、智慧網絡化的社會。一般而言,人工智能是以數據為養料而成長的技術。離開海量數據,人工智能就無法發展和提高預測能力。所以大數據與人工智能的發展之間存在顯著的正比例關系:數據的規模越大、質量越好,往往人工智能的功能就越強、預測的精確度也就越高。這種關系在預測犯罪或者開發有效的疫苗和藥品等應用場景中表現得尤其清楚。

        現階段的中國,人口規模(約14億)、網民人數(約8億)以及每天產生的數據量(約900兆字節)均為世界第一。由于國情和社會基礎設施方面的某些特征,中國的互聯網金融、網上購物、外賣快遞、移動支付、一卡通系統非常普及,為數據的收集和應用提供了各種各樣必要的場景和充分的條件。根據2018年的統計,中國大數據產業相關人才的規模全球第一,占比59.5%,比居第二位的美國高出37.1個百分點。更值得留意的是,中國數據的公有化程度極高,大約70%以上的優質數據資源由國家掌控。這種狀況有利于打破各種局部疆界,充分調動數據資源來發展產業經濟,也勢必促進人工智能在國家治理和法律制度運作方面的廣泛應用,但也把個人數據安全和隱私保護問題以更加尖銳的形式呈現出來。

        2)基于評分系統的身份原理與警察國家

        例如作為第三方征信機構的芝麻信用,利用海量的各種數據(特別是阿里巴巴的電商交易數據和螞蟻金服的互聯網金融數據,也包括政府數據)構成個人數字化行為履歷,分別從身份特質、行為偏好、履約能力、信用歷史、交友關系等不同維度進行信用評分。在這里,950分為滿分,750分以上為信用優良,550分以下(底限是350分)為缺乏信用。信用優良的用戶可以享受很多優惠,如租車、住酒店不必交押金,網購可以先試后買,辦理某些國家的旅游簽證不必辦理存款證明,租房可以零押金、先入住后付款,看病可以先診療后付費,還有信用婚戀,等等。據報道,這個征信系統的登記人數已經達到兩億,到2020年還將落實全民義務登記社會信用系統的計劃,形成空前規模的評分社會或者說等級化的排序社會。最高人民法院已經與芝麻信用簽署合作協議,形成了一種聯合懲戒失信行為的機制———把判決不執行等違法行為納入信用評價范圍,通過各種應用平臺限制失信被執行人的各種經濟活動和生活方式,借助大數據強化債務履行和判決執行。

        眾所周知,隨著改革開放的進展,中國人的財產關系日益復雜化。由于社會信用體系不太完備,從20世紀90年代開始,債權回收和判決執行難的問題就變得越來越突出。在這樣的背景下,最高人民法院借助大數據、人工智能以及芝麻信用的征信資料來追查和懲戒被執行人的失信行為當然是必要的。但不可忽視的是,在官民一體化的聯合懲戒機制形成和加強之后,如果沒有適當的規范制約和數據安全保障,中國有可能會以評分系統為媒介迅速轉變成史無前例的監視社會,個人的權利很容易受到這樣或者那樣的侵犯。例如,芝麻信用的評分和失信記錄會作為數字化檔案保存五年,對家庭生活的各方面,包括就學、就業、晉升、入保等,產生深遠的、復雜的負面影響。其結果,可能會使得每個公民都有一個由大數據和人工智能構成的數字人格如影隨形,在不知不覺中影響其命運;可能會使在現代化過程中被否定的身份原理在數字人格的基礎上重新復活,事實上把每個公民作為“網絡人”分為三六九等;可能會在事實上使公民失去悔過自新的機會(為此,《歐盟通用數據保護條例》規定了個人信息刪除權、被遺忘權作為救濟手段),導致社會的階層之間更加缺乏流動性,特別是造成底層固化、形成“虛擬貧民窟”;可能會按照某種分類法或群體特征給公民個人貼上某種特定的標簽,造成在所謂“新集體主義”框架內的身份原理和算法歧視。例如美國有的人工智能系統把黑人圖片錯誤地識別為大猩猩,對亞裔族群在教育方面實行價格歧視,等等。

        物聯網、大數據以及人工智能的“鐵三角”,在某些場合還可能剝奪公民對個人信息的自我處分權(隱私權)、人格尊嚴以及法律面前平等的權利。例如常見的電商和網絡平臺把個人消費信息作為學習數據使用,分析行為樣式并發布對標廣告,這是否已經構成對隱私權的侵犯是需要認真考慮的。特別是遺傳信息包含那些與生俱來的特性,一旦由人工智能進行解讀和外泄就很容易影響個人入學、就業以及加入商業保險,大幅度減少某些公民的人生機遇和選擇空間。尤其是保險制度本來就是基于不利結果發生的偶然性而形成的互助機制,如果人工智能通過各種數據能夠準確計算和預測特定個人未來的風險,就勢必要把入保申請者分成不同類型進行差異化處理,導致人與人之間的不平等待遇,有些公民可能遭受歧視、被排除在外,這就勢必從根本上動搖保險制度通過偶然性分散風險的邏輯基礎。在一定意義上也可以說,如果在制度層面容許那些基于來自父母遺傳信息的差別,其實就是在向封建時代的血統觀、身份原理倒退。實際上,現代憲法的根本原則是維護公民的自由和平等,絕不允許把個人自己無法選擇、無法糾正的事作為不平等待遇的依據。

        3)現代憲法體制的應對舉措及其困境

        鑒于上述問題在各國發展的趨勢,歐盟《通用數據保護條例》(2018525日實施,General Data Protection Regulation,簡稱GDPR)從維護現代憲法體制的立場出發,特別強調了對個人尊嚴和公民基本權利的保障,被譽為人工智能時代的新人權宣言。這個條例能直接約束各加盟國的立法,具有根本規范的屬性,同時對歐盟各國向其他國家轉移數據的業務也能發揮約束效力。為了防止上述侵犯個人數據和隱私、個體尊嚴以及機會平等性的流弊,歐盟GDPR21條承認個人享有對基于大數據的人工智能檔案或者數字行為履歷提出異議的權利(反對權),如果數據管理者不能出示充分的正當性根據,必須中止電腦化處理。第22條還承認數據主體享有不服從那種僅根據人工智能而自動化作出的決定的權利,即公民享有對人工智能純自動化決定的抵抗權,要求必須有人介入和監控計算機的信息處理。為了防止這種公民抵抗權被化解,GDPR明確指出數據管理者不得通過假裝有人介入的方式來規避第22條的約束,確保人工智能不能單獨地、自動化地作出決定。該條例第13條第2款還特別強調了透明性原則,要求數據管理者必須對數據主體履行信息公開的義務,并且所提供的信息、程序、規格、算法都必須能為主體所理解,是可以清楚說明的。

        但是,不得不承認,歐盟通用數據保護條例第13條第2款和第22條在實施中會碰到一些前所未有的難題。規定必須由人介入和監控計算機的運作,其宗旨顯然是要確保人工智能的可控性。然而信息處理系統越復雜就越容易出現操作的失誤,當系統運作速度極快時人也很難對情況進行認識、預測以及掌握。何況系統與系統之間會產生目的沖突和互動,在存在機器學習甚至深度學習的情況下,不同人工智能系統之間的互動關系勢必極其復雜而變幻莫測。而且機器學習的效果越精準、深度學習的功能越強大,算法的涵義就會變得越來越難以理解和說明。例如20175月中國最高段位的圍棋選手柯潔與AlphaGo對弈以零比三失利,后者留有五十份自我對戰棋譜讓所有專業棋手都覺得不可思議,從專業知識和經驗的角度無法參透人工智能在機器學習之后根據概率進行這種貌似臭棋走法的緣由。但正是這些出其不意攻其無備的走法導致AlphaGo大獲全勝。這正是人工智能算法可能變得無法理解和無法說明的一個典型例證。在這種情況下,人對人工智能系統運作的介入和監控究竟有多少意義呢?因此,在自然人無能為力的地方,只好以人工智能來監控人工智能,通過不同的技術進行互相制衡也許是解決上述難題的一條思路。

        在無法理解和無法說明的場合,算法是黑箱化的。這樣的算法黑箱化,實際上也使人工智能具有了不受約束的權力性,使在現代民主法治國家具有關鍵意義的問責機制已經名存實亡。立法機構的決定、司法機構的判斷、行政機構的具體處分行為都需要給出明確的理由,以便據此防止主觀任意性,給相對人以申訴和復議的機會。如果人工智能進行的預測、提供的結論無法說明其理由,就無異于用“莫須有”的名義來做出決定,或者進行案件審理和制裁,且無從追究決定者是對還是錯的法律責任??上攵?,歐盟通用數據保護條例明確規定不能讓人工智能獨自進行自動化決定的主要原因就在這里。但是,隨著人工智能在國家治理和法律制度運行中廣泛滲透以及算法難以理解和說明,在很多應用場景下人們其實很難有效監控人工智能;相反,人工智能倒很容易成為人們轉嫁決策風險、逃避問責的一種重要的手段。毋庸諱言,在中國的智慧法院建設過程中已經或多或少出現了這樣的偏頗。另一方面,應用人工智能對大數據進行分析和學習,可以充分掌握社會心理和輿情的變化,對不同群體以及個人的行為進行精準的預測,這就會使國家對社會的監控能力和支配能力大幅度提高。在這種狀況下如果不能相應地提高民主問責的水準,權力濫用的危險也將漸次增加乃至尾大不掉。然而對人工智能輔助的決定進行民主問責,勢必要求對算法的理解和說明,可如前所述往往具有困難。于是,在這個出現了一個算法與問責互相糾纏的悖論。

        三、第四次產業革命與憲法體制創新

        1)現代憲法精神與人工智能發展的現實需求

        歐盟通用數據保護條例面臨的更大挑戰還來自第四次產業革命本身,來自對人工智能發展的強勁需求。按照現代憲法精神強調隱私權和個人信息保護,或多或少會引起虛擬空間的割據和碎片化,妨礙數據的大規模收集和應用,從而妨礙以數據為養料的人工智能系統以及智慧網絡化社會的快速成長。站在公共利益或者社會福利的立場上來看,收集更多的數據、進一步加強人工智能的預測力顯然是合乎理性的選項,有助于大幅度提高經濟增長的效率,因此有必要通過讓個人分類發展的“新集體主義”方式來實現整體的最優化。但是,如果接受這樣的觀點,那就意味著現代憲法體制的退讓,有可能損害個人自由。

        實際上,現代憲法體制也是產業革命的結果。如果從這個角度來看,第四次產業革命應該也有可能在相當程度上引發憲法體制的創新。如果試圖在現代憲法體制下的人權保障原理與數字經濟的迅猛發展這兩者之間尋找適當的平衡點,那就需要深入探討某種更適應人工智能時代需要的憲法體制,進行法治的范式創新,而不是簡單地按照個人自由主義的標準來限定智慧網絡化社會的變遷。但是,前面已經提到的各種問題又表明,如果不能切實保障個人信息安全和隱私權,人工智能的發展就很有可能誤入歧途,破壞“以人為本”的原則、侵犯個體的自由和安全,造成機器官僚主義的冷酷統治和無所不在的恐怖。因此當今憲法秩序演化的基本方向應該是把中國憲法第33條第3國家尊重和保障人權的原理嵌入智慧網絡之中,達成效率與公正、理性與溫情之間的適當平衡。

        2)人工智能時代的社會治理方式創新

        怎樣才能達成這樣一種理想的平衡狀態?在這個方面,所謂以人工智能來監控人工智能、通過不同的技術進行互相制衡是否具有現實可行性?在對新冠病毒疫情進行防控期間,中國廣泛應用互聯網和信息溝通技術(ICT)進行社會治理,提供了頗有啟迪意義的試行經驗和教訓。2020年春節前夕從武漢猛烈沖擊全國各地的新冠病毒肺炎疫情,使得隔離和割據突然成為一段時期內社會日常生活的特征,智慧網絡化的技術和平臺在匯集和分配信息、資源以及物資等方面發揮極其重要的功能。對疫區旅行者和疑似患者的排查、對隔離人員的監控、對救治病例的分析、對疫情發展的預測,都需要借助大數據和人工智能等科技手段,促進以電子政府和網絡型政府為特征的國家治理方式創新全面提速。在這里特別值得重視的是區塊鏈技術的廣泛應用。例如上海市靜安區臨汾街道根據電子政府方案,在20201月啟動了基于區塊鏈協議的社區治理平臺,推動十五分鐘生活圈內的自治,試圖在數字真實可信的基礎上實現行政活動全程留痕和監控以及多方協同。在新冠病毒疫情防控中,這個平臺又嵌入了預約登記和購買口罩等功能,顯示了區塊鏈技術在分散化、平面化社區治理方面的優勢,體現了一網通辦的制度設計思路。還有北京市的博云視覺科技有限公司開發的“智慧社區疫情防控網格化管理平臺”,可以進行人體測溫快速篩查、未戴口罩預警、陌生人員預警、進出記錄管控、異常人員聚集預警、疫情信息采集統計和分析等,以適應春節后返工中社區的精細治理和可視化服務。

        因為疫情防控的緊急狀態,幾乎所有城市和鄉村都按下了中止鍵、施行了“空城計”,人人都進入閉門自省的狀態。這樣的體驗以及由此產生的需求也許會為中國從零開始進行制度的理性設計提供一個重要的歷史契機。如果說在西歐現代化進程中,“待從頭收拾舊山河”的理性設計方案表現為關于人權保障、法治國家的社會契約論,那么不妨認為在當今中國,這種理性設計方案主要表現為關于信息公開、電子政府的互聯網協議,可以包括人工智能技術和區塊鏈技術這兩個階段或者層次。如果上述命題真的能夠成立,那么全國停頓就不是多此一舉,李文亮的犧牲也就不會化作無謂的泡影。首先來看基于人工智能技術運作的電子政府。電子政府的基本目標或者特征是平面分散、互聯互通、公開透明、數據安全,在價值體系上體現為平等、共享、協同、過程等偏好或者思想取向。不言而喻,通過把互聯網的各種功能應用于行政和政治,政府的定位和作用勢必有所變化,向群眾提供公共服務的數量、質量、效率以及滿意程度都會顯著提高。

        例如東歐的愛沙尼亞的電子政府計劃是以數字身份證為核心擬訂和實施的,嵌入的芯片里除了持證人的基本信息外,還有兩種證明資料:一種用于認證,另一種用于簽名,憑各自設定的暗號登陸使用。該證在公民中的普及率達到90%以上,所以大量的行政服務項目通過數字身份證來執行。公民通過數字身份證進行在線投票、繳納稅金、享受社保、進行體檢和接受醫療——所有就診記錄和診斷檔案都可以一證調閱,并自我決定是否向親屬或醫生公開。交通和旅行也是一卡通,數字身份證可以所謂乘車券或支付卡使用。數字身份證還可以用于網上銀行的開設和利用、水電煤氣費用的支付、學校教育(選課、提交作業、管理成績單、與教師聯系等)以及不動產登記、垃圾處理、環保等各種公共事業的服務項目,這就使行政與物聯網密切聯系起來。通過數字身份證,愛沙尼亞公民可以從全球不同居住地參加選舉投票。通過電子居住制,非公民也可以取得數字身份證從全球不同國家向愛沙尼亞投資并申請設立公司。

        在中國的新冠病毒疫情防控中,杭州市從2020211日起利用大數據和互聯網技術推出的健康碼,通過不同維度答問打分的方式把居民分成三種類型進行區別化安排。持綠碼者可以在市內自由通行;持黃碼者要進行七天以內的集中或居家隔離,在連續申報打卡七天都正常后轉為綠碼;持紅碼者要進行十四天以內的集中或居家隔離,連續申報打卡十四天都正常后轉為綠碼。對于填報不實的,都可以通過大數據進行鑒別,查實后一律定為紅碼,情節嚴重的還要采取懲處措施。這也是一種具有特定目的和時效性的數字化身份證。要使上述機制順利運轉,必須確保虛擬空間的安全。為此,愛沙尼亞的經驗是建構了無鑰簽名的基礎設施(KSI),使信息的記錄和檢索都可視化,確保政府記錄的正確性以及合規性。這是借助區塊鏈協議保證數據真實性的框架,不需要管理者,不需要對密鑰進行管理和更新的手續,有利于提高行政效率,有利于降低社會管理的成本。所以,接下來我們再來考察基于區塊鏈技術運作的電子政府。

        3)基于區塊鏈協議的電子政府與人權保障

        眾所周知,沒有信賴協議是信息互聯網的主要缺點。以比特幣和P2P方式為基礎的電子通貨系統,實際上構建了一種分散式信賴網絡,人們無須第三者或者權力的介入,通過直接的認證合作就可以達成信賴協議,也就是說使網絡本身能保證相互信賴。在這個意義上可以說,區塊鏈技術對于社會治理方式具有革命性意義。借助智能技術運作的電子政府,的確可以運用互聯網和大數據為公民提供大量的方便,但與之相伴的代價是個人隱私的喪失,而隱私正是自由和自治的堡壘。區塊鏈的本質是把個人隱私黑箱化,從而可以抗衡借助智能技術的外部操作。也就是以區塊鏈技術實現隱私的黑箱化,從而制約人工智能技術,并力爭改變黑箱化的算法。換個角度來看,如果說智能技術可以讓信息處理系統的終端工作自動化,那么不妨認為區塊技術能使系統中樞工作也自動化。因而人工智能技術與區塊鏈技術之間存在著相反相成的關系。為了確保個人參與同意的計算和共識的達成,區塊鏈還以挖礦方式提供了充分的誘因,用以解決交易成本問題。在這里,利己的行動本身就可以構成公共利益的一部分,具體的智能合約就可以明確各自的權利義務。

        從新冠病毒疫情在武漢失控的事實可以看到,舊的集權式治理方式已經出現嚴重的功能障礙甚至失靈。在那樣的體制里各級官僚大都眼睛朝上不朝下,滿足于形式主義的官樣文章,出現問題也總是傾向于隱瞞真相和推卸責任。不同部門之間畫地為牢,缺乏信息公開和資源共享,把時間和精力消耗在繁瑣的手續上。即便急需的疫情防控物資和捐贈醫藥品也被壟斷流通渠道,無法及時送到最需要的地方,一些荒唐的作秀活動卻浪費了極其寶貴的救護裝備。在封城和隔離的決定做出之后,基層治理機制不能有效發揮作用甚至出現崩潰,公民的各種訴求得不到必要的回應和處理。幸虧電商、物聯網以及移動通信系統在疫情防控的隔離狀態發揮了積極作用。由此也可以證明,通過大數據、人工智能以及信息合作提高業務效率、在公共服務中充分利用物聯網、借助信賴網絡突破地域和行業的樊籬等做法是必要的,也是可能的。結論就是疫情防控的經驗已經顯示行政和政治的區塊鏈化勢在必行。

        區塊鏈技術有可能形成社會治理的“路路通”格局。例如愛沙尼亞的電子政府計劃利用區塊鏈構建了所謂“X-road”的數據共享系統,把各種數據庫和智慧城市項目融通無礙地聯結在一起,使行政服務和民間服務能夠互相銜接兼容,極大地提高了公共活動的效率,極大地方便了居民的日常生活和行動。前面提到的數字身份證系統并不是由國家集中管理,而是分散式的。包括出生證明、戶籍、護照、駕駛證、投票資格等各種公共證書都用加密化的哈希值(聯想配列)來表示,在區塊鏈上進行分散管理和使用。在這里,可靠的數據安全技術保障了信息的正確性和私密性;數據查閱和更新的履歷是可以確認的,公民可以及時獲悉是誰接觸了自己的個人信息;大量的作業量是自我完成的,所以可以顯著減少行政成本,同時還可以保證公共證書的正當性。區塊鏈技術還可以用于基層選舉。提供參與誘因的挖礦方式,意味著區塊鏈可以通過制度設計吸引人們對社會問題產生興趣、發表意見、根據共識制定更有說服力和執行力的政策。由于電子貨幣的密碼確保不能重復使用,能夠有效地防止重復投票行為,所以區塊鏈技術可以建構透明化的、可靠的選舉系統。通過在線會議、意見廣場等方式,區塊鏈技術也可以應用于協商民主,而不限于分散化投票。通過數據的可視化、可追蹤性,區塊鏈技術還有利于落實問責原則。

        總之,人工智能技術的核心是程序算法,強調的數據匯聚和預測精確性,側重于法制的統一化和行政效率;與此相映成趣,區塊鏈技術的核心是網絡協議,強調的是管理分散和隱私權保障,側重于法制的透明化和網絡共識。這兩者互相制衡同時又互相補充,有利于電子政府的健全發展。前面曾經指出,以人工智能監控人工智能,通過不同技術進行制衡也許是解決算法黑箱化難題、根據人工智能時代的現實重構憲法體制的一條思路。在這里我們看到,人工智能技術與區塊鏈技術之間相反相成的關系,為這條思路提供了現實可行的例證。

        4)機器人權與人工智能的責任主體資格

        在探討人工智能時代的憲法秩序創新之際,究竟應該怎樣定位機器人也是一個很重要的問題。一般而言,生產率提高、經濟景氣上揚勢必導致就業率的攀升。但是,從2000年開始,美國的經濟效益越好,雇傭人數反倒減少,兩者之間的差距不斷擴大。不言而喻,其原因在于機器人取代自然人從事生產活動。根據MIT和波士頓大學的研究報告,每千名工人擁有的機器人數量增加1個,就業率就會下降18-35個百分點、工人薪酬也會下降25-50個百分點。鑒于這種情況,2017217日比爾·蓋茨在接受數字媒體Quartz采訪時曾經提出向機器人課稅的建議,試圖通過再分配的方式解決失業和社會福利問題。從法理學的角度來看,既然機器人可以成為責任主體,那么當然也應享有相應的權利——這正是機器人權論的主張。賦予智能化機器以法律人格乃至人權貌似一種迂闊之見,但其實是持之有據、言之成理的;特別是最近出現了用青蛙細胞生成的“活體機器人(Xenobots,作為一種可編程的有機體,使得機器與動物生命之間的界限已經非常相對化。隨著醫療科技的飛速進步,實際上人的身體或臟器的相當部分都可以由人工產品構成,人機混合狀態日益普及,這就使得機器人權的討論具有越來越強的現實意義。20198月,在Youtube網站上發表視頻的不少人發現,算法會自動刪除機器人對戰的視頻。這是否構成機器人自我認知的征兆?在出現諸如此類的機器覺醒現象,特別是出現自律型人工智能之后,機器人的權利問題其實與動物、胎兒、植物人的權利問題具有類似性;在機器人的能力超過自然人的情況下,賦權的理由實際上也就變得更加充分。

        一旦承認機器人權,隨之而來的問題就是如果人工智能具有與人同樣的能力、資格以及精神權益,中國憲法第33條第2款規定的法律面前的平等性是否也包括人工智能?鑒于猴子拿起傻瓜相機自拍和人機對話系統的歧視性笑話等實例,人工智能是否也可以享有憲法第35條規定的言論和表達的自由?現在已經有很多自動作曲、自動寫詩、自動繪畫的智能軟件,由此產生的作品能否享有著作權、權利主體是誰?能否承認對這類作品的壟斷性保護,如果承認的話保護期間設定多久為宜?在中國,人工智能在司法和法律服務方面的應用已經非常廣泛,并且得到政府的鼎力支持。在現行法律框架下,人工智能代行相當部分的法律業務是否違反了法官法、檢察官法以及律師法?如果人工智能可以被賦予法律人格,那么可否也被賦予法官、檢察官以及律師的任職和執業資格呢?如果回答是肯定的,就必須考慮設定什么樣的準入門檻。關于人工智能系統的法律人格以及自然人和機器人在人格上的平等性,是數字化時代憲法學也有必要認真討論一個重要問題。

        四、結語:在智慧網絡中尋找新的平衡點和組合方式

        在上海召開的2019年世界人工智能大會法治論壇,通過了《人工智能安全與法治導則》,從算法安全、數據安全、知識產權、社會就業和產品法律責任這五個方面明確了相關的原則、政策和法律制度安排,體現了硬法與軟法相結合的特征。關于算法的可理解性和可說明性,導則強調對算法進行技術評估以及算法的技術倫理,要求構建軟件質量和算法安全的檢測體系。導則鼓勵人工智能數據開放性保護,還對數據隱私問題給予特別關注,強調對采集和使用敏感個人數據的人工智能企業或行業加強法律的和行政的監管。在這里,不是像歐盟通用數據保護條例那樣賦予數據主體提出異議、進行抵制的自由權,而是進一步加強法律和行政的監管,體現了中國傳統治理方式的特征以及憲法觀的差異。導則也注意到關于機器人納稅之議,提出了面向人工智能開展收入調節,提高社會二次分配的合理性和精準性的命題,但沒有把機器人作為責任主體。中國倡議的做法是科學分配人工智能侵權的法律責任,要求人工智能設計者、生產者、運營者、使用者承擔法律主體責任,并按照過錯程度進行分擔。在這里可以發現,導則還沒有明確地提示處理各種規范沖突的元規則以及對價值進行排序的標準,這是一個缺憾。

        人工智能在本質上是規則嵌入的系統,可以形成硬法的支配、創造全程留痕的條件,因而有利于加強對公權的制約。在這個意義上,人工智能可以貫徹現代憲法的精神。但是,人工智能的能力提升有待于盡量增大數據的規模,勢必突破圍繞私權的屏障壁壘,在相當程度上侵蝕隱私和個人尊嚴,甚至動搖自由的根基。另外,以對大數據的機器學習為背景,尤其是在智慧網絡化的社會條件下,算法的理解和說明將變得很困難,并自然導向算法黑箱化以及算法獨裁。算法黑箱化實際上會在不同程度上妨礙對權力問責,同時也會助長回避責任和轉嫁責任的不良傾向。數據偏誤和算法歧視還會招致對現代憲法原則的抵制,削弱對公民基本權利的保障。

        如果希望發展人工智能、提高其預測能力,同時又尊重和保障人權,就需要在算法與憲法之間達成適當的平衡,從而推動憲法理論和法治范式的創新。新型憲法觀樹立的一個關鍵是形成人工智能技術與區塊鏈技術之間制衡的機制并不斷尋求科學理性、經濟效率與人格尊嚴、社會公平之間的更優乃至最優的組合方式。

        字號: [] [] [] [ 閱讀]:4693人次      [ 關閉窗口]

        排列五开奖走势图