以可信為基礎(chǔ)構(gòu)建人工智能治理法律制度的必要性
人工智能技術(shù)發(fā)展突飛猛進,,在諸多領(lǐng)域取得了令人矚目的成就,。但是,,人工智能的發(fā)展,,卻因為技術(shù)的復雜性、風險的不完全確定性,、技術(shù)濫用,、法律規(guī)制的缺位等因素,還未完全贏得社會的信任,。
(一)人工智能發(fā)展中還存在侵蝕其可信性的諸多因素
其一,,人工智能技術(shù)發(fā)展還存在諸多可知或不可知的風險。當前,,人工智能存在著失控性風險,、社會性風險、侵權(quán)性風險,、歧視性風險,、責任性風險五個方面的倫理安全風險。其二,人工智能技術(shù)還不完全可信,。(1)人工智能技術(shù)還未真正達到人們想象的發(fā)達程度,,總體上還處于專用人工智能而不是通用人工智能發(fā)展階段。(2)深偽技術(shù)加劇了人們對真實性瓦解的擔憂,。(3)技術(shù)安全等問題未完全解決,。(4)與人工智能技術(shù)關(guān)聯(lián)的問題是,人工智能的良好運行高度依賴個人信息和數(shù)據(jù),,而個人信息和數(shù)據(jù)管控本身還存在諸多問題,,如App違反合法、正當,、必要的原則收集與所提供服務(wù)無關(guān)的個人信息,,“強制授權(quán)、過度索權(quán),、超范圍收集個人信息”大量存在,。其三,人工智能應(yīng)用不當導致了侵權(quán),,致使人工智能不完全可信,。其四,人工智能治理的技術(shù)使用還存在與其宣示的價值取向不一致的情形,,損害了人工智能發(fā)展的價值基礎(chǔ),。其五,規(guī)制人工智能的法律還不可信,。
(二)人工智能法為什么要強調(diào)信任
信任,,是人際關(guān)系得以長久維系的橋梁,是社會關(guān)系得以拓展的基礎(chǔ),,是社會發(fā)展的內(nèi)在條件,,更是建立高效社會組織的基本前提。信任是社會合作得以進行的基礎(chǔ),。信任成功與否取決于信任拓展范圍的大小,。人工智能技術(shù)的發(fā)展程度,不僅是由技術(shù)決定的,,而且是由規(guī)制人工智能的倫理,、法律等規(guī)范決定的。那些真正發(fā)展得良好的技術(shù),,必定也是法律保障有力,、遵循了良好倫理規(guī)范的技術(shù)。
人工智能獲得社會信任的法律基礎(chǔ)
(一)人工智能的信任需要法律來保障
其一,,傳統(tǒng)社會基于血緣等關(guān)系構(gòu)建了人際信任,,人與人之間的信任多建立在熟人關(guān)系基礎(chǔ)上,。其二,到近現(xiàn)代社會,,法律力圖建構(gòu)的是一種打破血緣關(guān)系,、促進陌生人合作的普遍信任機制。現(xiàn)代社會共同體合作,,主要建立在平等交換,、契約自由基礎(chǔ)上。其三,,人工智能時代的信任須建立在人工智能技術(shù)安全,、確定性的法律管控和社會倫理引領(lǐng)的基礎(chǔ)上。
(二)捍衛(wèi)現(xiàn)代法治的傳統(tǒng)和公民的基本權(quán)利系確保人工智能可信的關(guān)鍵
人們對人工智能技術(shù)的信賴,,建立在人工智能技術(shù)的安全性,、保障和規(guī)制人工智能的法律制度的正當性、規(guī)制人工智能發(fā)展的制度的價值正義性,、人工智能技術(shù)的實踐運作對人類基本價值追求和人的基本權(quán)利維護的有效性的基礎(chǔ)上,。在支撐人工智能信任的技術(shù)維度、法律維度,、倫理維度和實踐維度中,,最為關(guān)鍵的是為人工智能發(fā)展設(shè)定法律監(jiān)管標準。
可信人工智能法律構(gòu)建的倫理基礎(chǔ)與可信特征
包括我國在內(nèi)的許多國家均將“可信”作為人工智能的核心倫理原則,,而“正當性”則是保障人工智能可信法律構(gòu)建的基礎(chǔ),。
(一)正當性是保障人工智能可信法律構(gòu)建的倫理基礎(chǔ)
全球關(guān)于人工智能治理可信問題的關(guān)注最初是在倫理文件中表達的。雖然存在一些爭議,,但是國際社會在“可信賴的人工智能”“負責任的人工智能”等核心理念上可能會達成一致,。可信被很多國家人工智能倫理確認為了一項基本倫理原則,,這一原則的提出,,是為了解決人工智能的價值對齊問題,即確保人工智能的目標與人類的目標一致,,使其“行為和決定符合人類的價值,、目標,、道德考量”,。但是,單純從倫理準則角度構(gòu)建人工智能的可信存在諸多問題:(1)全球關(guān)于人工智能治理存在諸多爭議,,不同準則之間的沖突日益凸顯,,如“普惠發(fā)展與隱私保護”“安全可靠與非歧視要求的沖突”等;既有準則規(guī)范可能由私人部門提出,,實際上是抵制政府監(jiān)管的借口等,。(2)作為倫理準則的可信標準,,主要是一種倡導性、自律性準則,,缺乏有效的監(jiān)督執(zhí)行機制,,強制性程度不足;準則的表達多采概括性概念,,可操作性不強,。因而,國家立法所要做的工作就是,,將倫理準則轉(zhuǎn)化為法律準則,,并通過更加具體的技術(shù)規(guī)則和法律規(guī)則設(shè)計,保障可信準則在人工智能產(chǎn)品或服務(wù)的研究,、開發(fā),、設(shè)計、部署,、使用,、監(jiān)管等具體環(huán)節(jié)得到落實。
(二)現(xiàn)行可信人工智能的評估標準
何積豐院士提出,,人工智能的可信特征包括四個方面:(1)魯棒性,,即對未知情況具備一定的應(yīng)對能力;(2)自我反省,,即對自身性能或錯誤能夠有所感知,;(3)自適應(yīng),即能夠成為通用的系統(tǒng),,能被應(yīng)用到新的環(huán)境,;(4)公平性,如應(yīng)防止被不當力量訓練為種族歧視的智能,。有學者提出了可信人工智能系統(tǒng)的質(zhì)量框架,,包括:(1)尊重人類自治原則,含人權(quán)代理與監(jiān)督,。這是最為重要的原則,,人工智能應(yīng)當賦予人類新的權(quán)利而不是取代人類,且處于人類控制之下,,不對人類基本權(quán)利或健康造成損害,。(2)傷害預防原則,包括魯棒性,、穩(wěn)定性,、安全性(包括保密性、完整性,、可用性),、可靠性,、可問責性、隱私性,、可重復性,、準確性等。(3)可解釋性原則,,包括透明性,、可解釋性。(4)公平性原則,,即確保群體或者個體不受偏見或歧視,。(5)一般軟件質(zhì)量屬性,如兼容性,、可維護性,、功能適用性、可移植性,、性能效率,、易用性等。
可信人工智能發(fā)展對法律構(gòu)建提出的要求
(一)保障可信人工智能發(fā)展的多元路徑與法律路徑
保障可信人工智能發(fā)展的路徑是多元的,,大致包括四個方面,。(1)側(cè)重行業(yè)技術(shù)保障的路徑。如中國信息通信研究院和京東探索研究院通過對全球范圍內(nèi)已經(jīng)發(fā)布的84份政策文件按照詞頻進行梳理發(fā)現(xiàn),,當前人工智能治理原則已經(jīng)收斂在“透明性,、安全性、公平性,、可責,、隱私保護等五個方面”,支撐可信的技術(shù)包括“穩(wěn)定性技術(shù),、可解釋性技術(shù),、隱私保護技術(shù)、公平性技術(shù),、可視化技術(shù)”等,。(2)技術(shù)認證的客觀標準與倫理價值評價的主觀標準結(jié)合的路徑。(3)人工智能的風險防控路徑,。(4)法律,、倫理、技術(shù)結(jié)合的路徑,。2019年,,歐盟人工智能高級別專家組發(fā)布了《可信人工智能的倫理指南》,提出人工智能在整個生命周期中需要滿足三個條件:合法性,,即可信人工智能應(yīng)當依法合規(guī),;道德性,即人工智能發(fā)展要符合道德原則,、價值觀,;穩(wěn)健性,即人工智能發(fā)展應(yīng)避免造成無意的損害或負面影響,。這實際上提出了保障人工智能可信發(fā)展的綜合路徑,。
為人工智能設(shè)定法律標準,實際上是為人工智能的研究者,、開發(fā)者,、部署者等設(shè)定最為基本的標準,并通過法律的強制執(zhí)行性推動各項標準的落實,,以防人工智能的發(fā)展偏離人類追求的價值目標,,實現(xiàn)對人工智能產(chǎn)業(yè)發(fā)展的規(guī)制、引領(lǐng)作用,。
(二)可信人工智能對法律提出的期待
可信是一種文化,,一種基于技術(shù)發(fā)展而形成的人對人工智能的認知和信任狀態(tài)。為了保障人工智能的可信發(fā)展,,法律制度的創(chuàng)設(shè)或者調(diào)整應(yīng)當遵循一系列外在準則和內(nèi)在準則,。
1.可信人工智能法律構(gòu)建應(yīng)遵循的外在準則
外在準則構(gòu)成了人工智能發(fā)展的國家社會目標,意在維護國家社會的福祉和法律的基本價值,,是人工智能長遠發(fā)展的基本準則,。外在準則主要是一種理念,它無法通過人工智能技術(shù)而直接得到落實,,但它可以成為評判人工智能技術(shù)發(fā)展是否正當?shù)脑獪蕜t,,是人工智能發(fā)展的總的引領(lǐng)性準則。
其一,,以人為本,,捍衛(wèi)人的基本權(quán)利。人工智能立法堅持以人為本,,就應(yīng)當保護個人信息和數(shù)據(jù)等數(shù)據(jù)權(quán)利,,保護人格權(quán)、人的自主決策(自治權(quán))和人類的主體性,,還應(yīng)當重視對社會弱勢群體的權(quán)益保護,。發(fā)展以人為本的人工智能,既應(yīng)從技術(shù)發(fā)展的角度來設(shè)定制度,,還應(yīng)從人的基本權(quán)利的角度規(guī)制人工智能技術(shù),。以人為本還應(yīng)當認真考量新產(chǎn)業(yè)發(fā)展對傳統(tǒng)產(chǎn)業(yè)帶來的沖擊,如人工智能發(fā)展對傳統(tǒng)產(chǎn)業(yè)領(lǐng)域的就業(yè)替代,,就是一個需要高度關(guān)注的問題,。以人為本的理念與憲法確定的人的基本權(quán)利之間具有密切的聯(lián)系,。
其二,人類主導原則,。人類主導原則是從人與機器關(guān)系的最終意義上說的,。因為人工智能在很多方面代替人進行道德選擇和決策,但智能系統(tǒng)要為人類做決定,,不能脫離人類倫理指導,。當人工智能的決定不符合人類需要的時候,人類可以取代人工智能做出決定,。人類主導原則還要求,,人工智能的設(shè)定,還應(yīng)當尊重國別文化的多元性,、尊重個體差異,,并采取措施防止“人類對機器人的過度依賴”。
其三,,技術(shù)中立原則,。技術(shù)中立原則是設(shè)計人工智能法律制度時應(yīng)遵循的一項前置性原則。例如,,如果在交通事故中對普通駕駛?cè)税凑者^錯責任進行歸責,,而對人工智能汽車采取嚴格責任原則予以歸責并要求車主承擔交通事故責任,那么就背離了技術(shù)中立原則,,而適用過錯原則可能是妥當?shù)摹?2.可信人工智能法律制度構(gòu)建的內(nèi)在準則
內(nèi)在準則主要是法律技術(shù)性準則,,這些準則大多可通過人工智能的技術(shù)設(shè)計、改進而得以落實,。內(nèi)在準則構(gòu)成了人工智能法律的操作性準則,。
其一,透明原則,。人工智能的透明,,首先是為了保障公民的知情權(quán),讓人們了解人工智能是如何運作的,。透明原則是為了防止人工智能被運用于不法目的或不正當目的,,有助于增強人的自主性,不透明的人工智能難以獲得人的信任,。
其二,,安全原則。首先應(yīng)確保網(wǎng)絡(luò)安全,、數(shù)據(jù)安全與算法安全,。(1)可信意味著必須降低人工智能風險,采用“強制性標準”對風險進行管控,且風險管控措施應(yīng)符合比例原則,,不能向人工智能開發(fā)者提出過高的要求(歐盟人工智能法第64部分),。(2)對風險宜進行分類管控或是分級管控。如2024年歐盟發(fā)布的人工智能法案將人工智能的風險分為四級,,采取不同的限制措施,。中國的人工智能法(學者建議稿)則將人工智能分為關(guān)鍵領(lǐng)域與一般領(lǐng)域進行管控,,對關(guān)鍵領(lǐng)域進行重點管控,。
其三,公平原則,。核心是,,在人工智能的模型訓練中,排除那些明顯存在或者隱性存在文化偏見,、性別歧視或種族歧視的數(shù)據(jù)集,。
其四,隱私保護原則,。隱私被侵犯,,自然人的感知最為直接,顯然,,一個無法保護隱私利益的人工智能,,是無法被人們接受的。
其五,,可問責原則,。確保人工智能的部署、使用產(chǎn)生的法律責任是可問責的,。問責是對侵權(quán)者的追責,,也是對受害者的救濟。
保障人工智能可信發(fā)展的具體法律制度
(一)設(shè)計,、評估與測試制度
其一,,設(shè)計階段的價值對齊制度。(1)法律應(yīng)當將價值對齊作為一項基本義務(wù)賦予人工智能設(shè)計者,。(2)人工智能在開發(fā)階段就應(yīng)注意防止偏見和歧視,。首先,識別人工智能必須遵守的倫理價值和規(guī)范,,其次,,將這些規(guī)范通過程序編碼寫入人工智能系統(tǒng),最后,,為了驗證人工智能是否與特定價值和規(guī)范兼容,,應(yīng)當對人工智能的規(guī)范和價值的有效性進行評估。
其二,評估制度,。人工智能開發(fā)者,、提供者在開發(fā)、提供人工智能產(chǎn)品和服務(wù)前,,可自行或委托第三方機構(gòu)對數(shù)據(jù)質(zhì)量,、潛在偏見歧視、科技倫理審查情況,、公共利益影響,、保護措施等內(nèi)容進行安全風險評估。
其三,,人工智能的安全測試制度,。(1)為了保證安全,應(yīng)建立密碼技術(shù)管理制度,,實現(xiàn)可信計算和可信驗證,。(2)設(shè)立沙盒監(jiān)管制度,強化安全測試和安全風險監(jiān)管,。(3)人工智能提供者對人工智能生成內(nèi)容的標示制度,。
(二)建立針對人工智能領(lǐng)域的監(jiān)督制度
(1)采用“憲法性AI”的思路,用人工智能監(jiān)督人工智能,,用“一個從屬的AI模型評估主模型的輸出是否遵循了特定的‘憲法性’原則(即原則或規(guī)則清單),,評估結(jié)果被用于優(yōu)化主模型”。目的在于推進價值對齊,,將對可信人工智能影響最大的法律原則,,落實在人工智能發(fā)展技術(shù)中。雖然人工智能監(jiān)督人工智能是高效的,,但考慮到人工智能法律監(jiān)督僅處在初期,,故設(shè)置針對人工智能法律監(jiān)督的人類標注員依然是必要的、重要的,。(2)分級監(jiān)督制度,。針對人工智能決策,針對性地建立一級監(jiān)督制度或二級監(jiān)督制度,。一級監(jiān)督制度針對部分自動化決策,,即把人工智能決策作為專業(yè)人員決策的支持理由,決策最終由人類來選擇,;此等情形下,,人工智能決策是人類決策的組成部分。二級監(jiān)督針對的是完全自動化決策,,即在人工智能作出決定后,,人類對智能化作出的決策進行監(jiān)督和糾正,。總之,,“一級監(jiān)督在決策過程中具有構(gòu)成性作用,,而二級監(jiān)督對一級監(jiān)督進行檢查和控制”。(3)隱私保護監(jiān)督制度,。(4)權(quán)力制約監(jiān)督制度,。
(三)完善人工智能的責任制度
其一,人工智能的使用者為了安全,、放心,,當然期望人工智能的開發(fā)或銷售企業(yè)能夠承擔起全部責任。其二,,在法律責任設(shè)定上,,“應(yīng)輔以問責框架,,包括免責聲明以及審查和補救機制等,,以確保在開發(fā)、部署和使用之前和之后對人工智能系統(tǒng)及其結(jié)果負責和問責”,。其三,,刑法應(yīng)增設(shè)相關(guān)責任條款,將對非法訪問AI或從事黑客攻擊的嚴重行為,、讓人工智能運行實行犯罪的使用惡意軟件的行為納入刑法調(diào)整范圍,。
結(jié)語
可信人工智能治理進程中的法律制度的構(gòu)建,應(yīng)以技術(shù)路徑為基礎(chǔ),,融合倫理準則,,溝通人工智能發(fā)展的外在準則和內(nèi)在準則,捍衛(wèi)現(xiàn)代法治傳統(tǒng),,保障憲法確認的公民的基本權(quán)利,;同時,應(yīng)當處理好人工智能發(fā)展中國際性與地方性,、市場邏輯和治理邏輯,、監(jiān)管的包容與審慎、權(quán)力制約與權(quán)利保護,、道義與理性等關(guān)系,。
2025-03-19