77777亚洲午夜久久多喷_一二三四视频社区在线_国产免费久久久久AV片_久久國產視頻精品_久久AV无码专区亚洲AV桃花岛_日本黄页在线观看_中文字幕人妻伦伦在线播放_国产亚洲综合精品一区二区三区_91精品国产成人综合_国产影院免费看成人,久久精品国产亚洲夜色AV网站,色香欲综合成人免费视频,最好看最新日本中文字幕

楊建軍:可信人工智能發(fā)展與法律制度的構(gòu)建

  • 2025年03月19日
  • 西北政法大學(xué)
關(guān)注西法大官網(wǎng)
微信
微博
Qzone
網(wǎng)址
打印
閱讀

以可信為基礎(chǔ)構(gòu)建人工智能治理法律制度的必要性

人工智能技術(shù)發(fā)展突飛猛進(jìn),,在諸多領(lǐng)域取得了令人矚目的成就。但是,,人工智能的發(fā)展,,卻因?yàn)榧夹g(shù)的復(fù)雜性、風(fēng)險(xiǎn)的不完全確定性,、技術(shù)濫用,、法律規(guī)制的缺位等因素,還未完全贏得社會(huì)的信任,。

(一)人工智能發(fā)展中還存在侵蝕其可信性的諸多因素

其一,,人工智能技術(shù)發(fā)展還存在諸多可知或不可知的風(fēng)險(xiǎn)。當(dāng)前,,人工智能存在著失控性風(fēng)險(xiǎn),、社會(huì)性風(fēng)險(xiǎn)、侵權(quán)性風(fēng)險(xiǎn),、歧視性風(fēng)險(xiǎn),、責(zé)任性風(fēng)險(xiǎn)五個(gè)方面的倫理安全風(fēng)險(xiǎn)。其二,,人工智能技術(shù)還不完全可信,。(1)人工智能技術(shù)還未真正達(dá)到人們想象的發(fā)達(dá)程度,總體上還處于專用人工智能而不是通用人工智能發(fā)展階段,。(2)深偽技術(shù)加劇了人們對真實(shí)性瓦解的擔(dān)憂,。(3)技術(shù)安全等問題未完全解決。(4)與人工智能技術(shù)關(guān)聯(lián)的問題是,,人工智能的良好運(yùn)行高度依賴個(gè)人信息和數(shù)據(jù),,而個(gè)人信息和數(shù)據(jù)管控本身還存在諸多問題,如App違反合法,、正當(dāng),、必要的原則收集與所提供服務(wù)無關(guān)的個(gè)人信息,“強(qiáng)制授權(quán),、過度索權(quán),、超范圍收集個(gè)人信息”大量存在。其三,,人工智能應(yīng)用不當(dāng)導(dǎo)致了侵權(quán),,致使人工智能不完全可信,。其四,,人工智能治理的技術(shù)使用還存在與其宣示的價(jià)值取向不一致的情形,,損害了人工智能發(fā)展的價(jià)值基礎(chǔ)。其五,,規(guī)制人工智能的法律還不可信,。

(二)人工智能法為什么要強(qiáng)調(diào)信任

信任,是人際關(guān)系得以長久維系的橋梁,,是社會(huì)關(guān)系得以拓展的基礎(chǔ),,是社會(huì)發(fā)展的內(nèi)在條件,更是建立高效社會(huì)組織的基本前提,。信任是社會(huì)合作得以進(jìn)行的基礎(chǔ),。信任成功與否取決于信任拓展范圍的大小。人工智能技術(shù)的發(fā)展程度,,不僅是由技術(shù)決定的,,而且是由規(guī)制人工智能的倫理、法律等規(guī)范決定的,。那些真正發(fā)展得良好的技術(shù),,必定也是法律保障有力、遵循了良好倫理規(guī)范的技術(shù),。

人工智能獲得社會(huì)信任的法律基礎(chǔ)

(一)人工智能的信任需要法律來保障

其一,,傳統(tǒng)社會(huì)基于血緣等關(guān)系構(gòu)建了人際信任,人與人之間的信任多建立在熟人關(guān)系基礎(chǔ)上,。其二,,到近現(xiàn)代社會(huì),法律力圖建構(gòu)的是一種打破血緣關(guān)系,、促進(jìn)陌生人合作的普遍信任機(jī)制?,F(xiàn)代社會(huì)共同體合作,主要建立在平等交換,、契約自由基礎(chǔ)上,。其三,人工智能時(shí)代的信任須建立在人工智能技術(shù)安全,、確定性的法律管控和社會(huì)倫理引領(lǐng)的基礎(chǔ)上,。

(二)捍衛(wèi)現(xiàn)代法治的傳統(tǒng)和公民的基本權(quán)利系確保人工智能可信的關(guān)鍵

人們對人工智能技術(shù)的信賴,建立在人工智能技術(shù)的安全性,、保障和規(guī)制人工智能的法律制度的正當(dāng)性,、規(guī)制人工智能發(fā)展的制度的價(jià)值正義性、人工智能技術(shù)的實(shí)踐運(yùn)作對人類基本價(jià)值追求和人的基本權(quán)利維護(hù)的有效性的基礎(chǔ)上,。在支撐人工智能信任的技術(shù)維度,、法律維度、倫理維度和實(shí)踐維度中,,最為關(guān)鍵的是為人工智能發(fā)展設(shè)定法律監(jiān)管標(biāo)準(zhǔn),。

可信人工智能法律構(gòu)建的倫理基礎(chǔ)與可信特征

包括我國在內(nèi)的許多國家均將“可信”作為人工智能的核心倫理原則,而“正當(dāng)性”則是保障人工智能可信法律構(gòu)建的基礎(chǔ),。

(一)正當(dāng)性是保障人工智能可信法律構(gòu)建的倫理基礎(chǔ)

全球關(guān)于人工智能治理可信問題的關(guān)注最初是在倫理文件中表達(dá)的,。雖然存在一些爭議,但是國際社會(huì)在“可信賴的人工智能”“負(fù)責(zé)任的人工智能”等核心理念上可能會(huì)達(dá)成一致,??尚疟缓芏鄧胰斯ぶ悄軅惱泶_認(rèn)為了一項(xiàng)基本倫理原則,這一原則的提出,,是為了解決人工智能的價(jià)值對齊問題,,即確保人工智能的目標(biāo)與人類的目標(biāo)一致,使其“行為和決定符合人類的價(jià)值,、目標(biāo),、道德考量”。但是,,單純從倫理準(zhǔn)則角度構(gòu)建人工智能的可信存在諸多問題:(1)全球關(guān)于人工智能治理存在諸多爭議,,不同準(zhǔn)則之間的沖突日益凸顯,如“普惠發(fā)展與隱私保護(hù)”“安全可靠與非歧視要求的沖突”等,;既有準(zhǔn)則規(guī)范可能由私人部門提出,,實(shí)際上是抵制政府監(jiān)管的借口等。(2)作為倫理準(zhǔn)則的可信標(biāo)準(zhǔn),,主要是一種倡導(dǎo)性,、自律性準(zhǔn)則,缺乏有效的監(jiān)督執(zhí)行機(jī)制,,強(qiáng)制性程度不足,;準(zhǔn)則的表達(dá)多采概括性概念,可操作性不強(qiáng),。因而,,國家立法所要做的工作就是,將倫理準(zhǔn)則轉(zhuǎn)化為法律準(zhǔn)則,,并通過更加具體的技術(shù)規(guī)則和法律規(guī)則設(shè)計(jì),,保障可信準(zhǔn)則在人工智能產(chǎn)品或服務(wù)的研究、開發(fā),、設(shè)計(jì),、部署、使用,、監(jiān)管等具體環(huán)節(jié)得到落實(shí),。

(二)現(xiàn)行可信人工智能的評估標(biāo)準(zhǔn)

何積豐院士提出,,人工智能的可信特征包括四個(gè)方面:(1)魯棒性,即對未知情況具備一定的應(yīng)對能力,;(2)自我反省,,即對自身性能或錯(cuò)誤能夠有所感知;(3)自適應(yīng),,即能夠成為通用的系統(tǒng),,能被應(yīng)用到新的環(huán)境;(4)公平性,,如應(yīng)防止被不當(dāng)力量訓(xùn)練為種族歧視的智能,。有學(xué)者提出了可信人工智能系統(tǒng)的質(zhì)量框架,包括:(1)尊重人類自治原則,,含人權(quán)代理與監(jiān)督,。這是最為重要的原則,人工智能應(yīng)當(dāng)賦予人類新的權(quán)利而不是取代人類,,且處于人類控制之下,,不對人類基本權(quán)利或健康造成損害。(2)傷害預(yù)防原則,,包括魯棒性,、穩(wěn)定性、安全性(包括保密性,、完整性,、可用性)、可靠性,、可問責(zé)性,、隱私性、可重復(fù)性,、準(zhǔn)確性等,。(3)可解釋性原則,包括透明性,、可解釋性,。(4)公平性原則,即確保群體或者個(gè)體不受偏見或歧視,。(5)一般軟件質(zhì)量屬性,,如兼容性、可維護(hù)性,、功能適用性,、可移植性、性能效率,、易用性等,。

可信人工智能發(fā)展對法律構(gòu)建提出的要求

(一)保障可信人工智能發(fā)展的多元路徑與法律路徑

保障可信人工智能發(fā)展的路徑是多元的,,大致包括四個(gè)方面。(1)側(cè)重行業(yè)技術(shù)保障的路徑,。如中國信息通信研究院和京東探索研究院通過對全球范圍內(nèi)已經(jīng)發(fā)布的84份政策文件按照詞頻進(jìn)行梳理發(fā)現(xiàn),,當(dāng)前人工智能治理原則已經(jīng)收斂在“透明性、安全性,、公平性、可責(zé),、隱私保護(hù)等五個(gè)方面”,,支撐可信的技術(shù)包括“穩(wěn)定性技術(shù)、可解釋性技術(shù),、隱私保護(hù)技術(shù),、公平性技術(shù)、可視化技術(shù)”等,。(2)技術(shù)認(rèn)證的客觀標(biāo)準(zhǔn)與倫理價(jià)值評價(jià)的主觀標(biāo)準(zhǔn)結(jié)合的路徑,。(3)人工智能的風(fēng)險(xiǎn)防控路徑。(4)法律,、倫理,、技術(shù)結(jié)合的路徑。2019年,,歐盟人工智能高級別專家組發(fā)布了《可信人工智能的倫理指南》,,提出人工智能在整個(gè)生命周期中需要滿足三個(gè)條件:合法性,即可信人工智能應(yīng)當(dāng)依法合規(guī),;道德性,,即人工智能發(fā)展要符合道德原則、價(jià)值觀,;穩(wěn)健性,,即人工智能發(fā)展應(yīng)避免造成無意的損害或負(fù)面影響。這實(shí)際上提出了保障人工智能可信發(fā)展的綜合路徑,。

為人工智能設(shè)定法律標(biāo)準(zhǔn),,實(shí)際上是為人工智能的研究者、開發(fā)者,、部署者等設(shè)定最為基本的標(biāo)準(zhǔn),,并通過法律的強(qiáng)制執(zhí)行性推動(dòng)各項(xiàng)標(biāo)準(zhǔn)的落實(shí),以防人工智能的發(fā)展偏離人類追求的價(jià)值目標(biāo),,實(shí)現(xiàn)對人工智能產(chǎn)業(yè)發(fā)展的規(guī)制,、引領(lǐng)作用。

(二)可信人工智能對法律提出的期待

可信是一種文化,,一種基于技術(shù)發(fā)展而形成的人對人工智能的認(rèn)知和信任狀態(tài),。為了保障人工智能的可信發(fā)展,,法律制度的創(chuàng)設(shè)或者調(diào)整應(yīng)當(dāng)遵循一系列外在準(zhǔn)則和內(nèi)在準(zhǔn)則。

1.可信人工智能法律構(gòu)建應(yīng)遵循的外在準(zhǔn)則

外在準(zhǔn)則構(gòu)成了人工智能發(fā)展的國家社會(huì)目標(biāo),,意在維護(hù)國家社會(huì)的福祉和法律的基本價(jià)值,,是人工智能長遠(yuǎn)發(fā)展的基本準(zhǔn)則。外在準(zhǔn)則主要是一種理念,,它無法通過人工智能技術(shù)而直接得到落實(shí),,但它可以成為評判人工智能技術(shù)發(fā)展是否正當(dāng)?shù)脑獪?zhǔn)則,是人工智能發(fā)展的總的引領(lǐng)性準(zhǔn)則,。

其一,,以人為本,捍衛(wèi)人的基本權(quán)利,。人工智能立法堅(jiān)持以人為本,,就應(yīng)當(dāng)保護(hù)個(gè)人信息和數(shù)據(jù)等數(shù)據(jù)權(quán)利,保護(hù)人格權(quán),、人的自主決策(自治權(quán))和人類的主體性,,還應(yīng)當(dāng)重視對社會(huì)弱勢群體的權(quán)益保護(hù)。發(fā)展以人為本的人工智能,,既應(yīng)從技術(shù)發(fā)展的角度來設(shè)定制度,,還應(yīng)從人的基本權(quán)利的角度規(guī)制人工智能技術(shù)。以人為本還應(yīng)當(dāng)認(rèn)真考量新產(chǎn)業(yè)發(fā)展對傳統(tǒng)產(chǎn)業(yè)帶來的沖擊,,如人工智能發(fā)展對傳統(tǒng)產(chǎn)業(yè)領(lǐng)域的就業(yè)替代,,就是一個(gè)需要高度關(guān)注的問題。以人為本的理念與憲法確定的人的基本權(quán)利之間具有密切的聯(lián)系,。

其二,,人類主導(dǎo)原則。人類主導(dǎo)原則是從人與機(jī)器關(guān)系的最終意義上說的,。因?yàn)槿斯ぶ悄茉诤芏喾矫娲嫒诉M(jìn)行道德選擇和決策,,但智能系統(tǒng)要為人類做決定,不能脫離人類倫理指導(dǎo),。當(dāng)人工智能的決定不符合人類需要的時(shí)候,,人類可以取代人工智能做出決定。人類主導(dǎo)原則還要求,,人工智能的設(shè)定,,還應(yīng)當(dāng)尊重國別文化的多元性、尊重個(gè)體差異,,并采取措施防止“人類對機(jī)器人的過度依賴”,。

其三,技術(shù)中立原則。技術(shù)中立原則是設(shè)計(jì)人工智能法律制度時(shí)應(yīng)遵循的一項(xiàng)前置性原則,。例如,,如果在交通事故中對普通駕駛?cè)税凑者^錯(cuò)責(zé)任進(jìn)行歸責(zé),而對人工智能汽車采取嚴(yán)格責(zé)任原則予以歸責(zé)并要求車主承擔(dān)交通事故責(zé)任,,那么就背離了技術(shù)中立原則,,而適用過錯(cuò)原則可能是妥當(dāng)?shù)摹?/span>

2.可信人工智能法律制度構(gòu)建的內(nèi)在準(zhǔn)則

內(nèi)在準(zhǔn)則主要是法律技術(shù)性準(zhǔn)則,這些準(zhǔn)則大多可通過人工智能的技術(shù)設(shè)計(jì),、改進(jìn)而得以落實(shí),。內(nèi)在準(zhǔn)則構(gòu)成了人工智能法律的操作性準(zhǔn)則。

其一,,透明原則,。人工智能的透明,首先是為了保障公民的知情權(quán),,讓人們了解人工智能是如何運(yùn)作的。透明原則是為了防止人工智能被運(yùn)用于不法目的或不正當(dāng)目的,,有助于增強(qiáng)人的自主性,,不透明的人工智能難以獲得人的信任。

其二,,安全原則,。首先應(yīng)確保網(wǎng)絡(luò)安全、數(shù)據(jù)安全與算法安全,。(1)可信意味著必須降低人工智能風(fēng)險(xiǎn),,采用“強(qiáng)制性標(biāo)準(zhǔn)”對風(fēng)險(xiǎn)進(jìn)行管控,且風(fēng)險(xiǎn)管控措施應(yīng)符合比例原則,,不能向人工智能開發(fā)者提出過高的要求(歐盟人工智能法第64部分),。(2)對風(fēng)險(xiǎn)宜進(jìn)行分類管控或是分級管控。如2024年歐盟發(fā)布的人工智能法案將人工智能的風(fēng)險(xiǎn)分為四級,,采取不同的限制措施,。中國的人工智能法(學(xué)者建議稿)則將人工智能分為關(guān)鍵領(lǐng)域與一般領(lǐng)域進(jìn)行管控,對關(guān)鍵領(lǐng)域進(jìn)行重點(diǎn)管控,。

其三,,公平原則。核心是,,在人工智能的模型訓(xùn)練中,,排除那些明顯存在或者隱性存在文化偏見、性別歧視或種族歧視的數(shù)據(jù)集,。

其四,,隱私保護(hù)原則。隱私被侵犯,自然人的感知最為直接,,顯然,,一個(gè)無法保護(hù)隱私利益的人工智能,是無法被人們接受的,。

其五,,可問責(zé)原則。確保人工智能的部署,、使用產(chǎn)生的法律責(zé)任是可問責(zé)的,。問責(zé)是對侵權(quán)者的追責(zé),也是對受害者的救濟(jì),。

保障人工智能可信發(fā)展的具體法律制度

(一)設(shè)計(jì),、評估與測試制度

其一,設(shè)計(jì)階段的價(jià)值對齊制度,。(1)法律應(yīng)當(dāng)將價(jià)值對齊作為一項(xiàng)基本義務(wù)賦予人工智能設(shè)計(jì)者,。(2)人工智能在開發(fā)階段就應(yīng)注意防止偏見和歧視。首先,,識別人工智能必須遵守的倫理價(jià)值和規(guī)范,,其次,將這些規(guī)范通過程序編碼寫入人工智能系統(tǒng),,最后,,為了驗(yàn)證人工智能是否與特定價(jià)值和規(guī)范兼容,應(yīng)當(dāng)對人工智能的規(guī)范和價(jià)值的有效性進(jìn)行評估,。

其二,,評估制度。人工智能開發(fā)者,、提供者在開發(fā),、提供人工智能產(chǎn)品和服務(wù)前,可自行或委托第三方機(jī)構(gòu)對數(shù)據(jù)質(zhì)量,、潛在偏見歧視,、科技倫理審查情況、公共利益影響,、保護(hù)措施等內(nèi)容進(jìn)行安全風(fēng)險(xiǎn)評估,。

其三,人工智能的安全測試制度,。(1)為了保證安全,,應(yīng)建立密碼技術(shù)管理制度,實(shí)現(xiàn)可信計(jì)算和可信驗(yàn)證,。(2)設(shè)立沙盒監(jiān)管制度,,強(qiáng)化安全測試和安全風(fēng)險(xiǎn)監(jiān)管,。(3)人工智能提供者對人工智能生成內(nèi)容的標(biāo)示制度。

(二)建立針對人工智能領(lǐng)域的監(jiān)督制度

(1)采用“憲法性AI”的思路,,用人工智能監(jiān)督人工智能,,用“一個(gè)從屬的AI模型評估主模型的輸出是否遵循了特定的‘憲法性’原則(即原則或規(guī)則清單),評估結(jié)果被用于優(yōu)化主模型”,。目的在于推進(jìn)價(jià)值對齊,,將對可信人工智能影響最大的法律原則,落實(shí)在人工智能發(fā)展技術(shù)中,。雖然人工智能監(jiān)督人工智能是高效的,,但考慮到人工智能法律監(jiān)督僅處在初期,故設(shè)置針對人工智能法律監(jiān)督的人類標(biāo)注員依然是必要的,、重要的,。(2)分級監(jiān)督制度。針對人工智能決策,,針對性地建立一級監(jiān)督制度或二級監(jiān)督制度,。一級監(jiān)督制度針對部分自動(dòng)化決策,即把人工智能決策作為專業(yè)人員決策的支持理由,,決策最終由人類來選擇,;此等情形下,人工智能決策是人類決策的組成部分,。二級監(jiān)督針對的是完全自動(dòng)化決策,,即在人工智能作出決定后,,人類對智能化作出的決策進(jìn)行監(jiān)督和糾正,。總之,,“一級監(jiān)督在決策過程中具有構(gòu)成性作用,,而二級監(jiān)督對一級監(jiān)督進(jìn)行檢查和控制”。(3)隱私保護(hù)監(jiān)督制度,。(4)權(quán)力制約監(jiān)督制度,。

(三)完善人工智能的責(zé)任制度

其一,人工智能的使用者為了安全,、放心,,當(dāng)然期望人工智能的開發(fā)或銷售企業(yè)能夠承擔(dān)起全部責(zé)任。其二,,在法律責(zé)任設(shè)定上,,“應(yīng)輔以問責(zé)框架,包括免責(zé)聲明以及審查和補(bǔ)救機(jī)制等,,以確保在開發(fā),、部署和使用之前和之后對人工智能系統(tǒng)及其結(jié)果負(fù)責(zé)和問責(zé)”。其三,刑法應(yīng)增設(shè)相關(guān)責(zé)任條款,,將對非法訪問AI或從事黑客攻擊的嚴(yán)重行為,、讓人工智能運(yùn)行實(shí)行犯罪的使用惡意軟件的行為納入刑法調(diào)整范圍。

結(jié)語

可信人工智能治理進(jìn)程中的法律制度的構(gòu)建,,應(yīng)以技術(shù)路徑為基礎(chǔ),,融合倫理準(zhǔn)則,溝通人工智能發(fā)展的外在準(zhǔn)則和內(nèi)在準(zhǔn)則,,捍衛(wèi)現(xiàn)代法治傳統(tǒng),,保障憲法確認(rèn)的公民的基本權(quán)利;同時(shí),,應(yīng)當(dāng)處理好人工智能發(fā)展中國際性與地方性,、市場邏輯和治理邏輯、監(jiān)管的包容與審慎,、權(quán)力制約與權(quán)利保護(hù),、道義與理性等關(guān)系。