77777亚洲午夜久久多喷_一二三四视频社区在线_国产免费久久久久AV片_久久國產視頻精品_久久AV无码专区亚洲AV桃花岛_日本黄页在线观看_中文字幕人妻伦伦在线播放_国产亚洲综合精品一区二区三区_91精品国产成人综合_国产影院免费看成人,久久精品国产亚洲夜色AV网站,色香欲综合成人免费视频,最好看最新日本中文字幕

信息網(wǎng)絡(luò)中心聯(lián)合校內(nèi)多部門召開人工智能應(yīng)用規(guī)劃研討會

  • 2025年03月24日
  • 信息網(wǎng)絡(luò)中心
關(guān)注西法大官網(wǎng)
微信
微博
Qzone
網(wǎng)址
打印
閱讀

3月21日,,信息網(wǎng)絡(luò)中心聯(lián)合黨委宣傳部,、學工部,、教務(wù)處,、財務(wù)處,、保衛(wèi)處,、后勤保障處等六個部門,,召開人工智能應(yīng)用規(guī)劃研討會,,針對人工智能大模型在校園場景的應(yīng)用需求進行了可行性調(diào)研與論證,。 

校方特邀火山引擎,、博達科技、東孚的行業(yè)專家,,現(xiàn)場解析大模型在教育領(lǐng)域的落地案例,,并就校方需求提出建設(shè)性方案。會上,,各部門結(jié)合職能定位,,從教學創(chuàng)新、管理效能,、服務(wù)優(yōu)化等維度探討大模型的應(yīng)用潛力,,重點圍繞技術(shù)可行性、實施路徑等關(guān)鍵議題展開深入研討,。 

本次會議通過跨部門協(xié)同論證,,為人工智能大模型在我校的場景化應(yīng)用奠定了實施基礎(chǔ),將有效推進校園智能化建設(shè)進程,,助力教學質(zhì)量,、科研產(chǎn)出及行政管理效能的全面提升。 

(供稿:信息網(wǎng)絡(luò)中心 撰稿:趙珂 審核:賈暄)

相關(guān)新聞

  • 楊建軍:可信人工智能發(fā)展與法律制度的構(gòu)建

    以可信為基礎(chǔ)構(gòu)建人工智能治理法律制度的必要性 人工智能技術(shù)發(fā)展突飛猛進,,在諸多領(lǐng)域取得了令人矚目的成就,。但是,,人工智能的發(fā)展,,卻因為技術(shù)的復雜性、風險的不完全確定性,、技術(shù)濫用,、法律規(guī)制的缺位等因素,還未完全贏得社會的信任,。 (一)人工智能發(fā)展中還存在侵蝕其可信性的諸多因素 其一,,人工智能技術(shù)發(fā)展還存在諸多可知或不可知的風險。當前,,人工智能存在著失控性風險,、社會性風險、侵權(quán)性風險,、歧視性風險,、責任性風險五個方面的倫理安全風險。其二,人工智能技術(shù)還不完全可信,。(1)人工智能技術(shù)還未真正達到人們想象的發(fā)達程度,,總體上還處于專用人工智能而不是通用人工智能發(fā)展階段。(2)深偽技術(shù)加劇了人們對真實性瓦解的擔憂,。(3)技術(shù)安全等問題未完全解決,。(4)與人工智能技術(shù)關(guān)聯(lián)的問題是,人工智能的良好運行高度依賴個人信息和數(shù)據(jù),,而個人信息和數(shù)據(jù)管控本身還存在諸多問題,,如App違反合法、正當,、必要的原則收集與所提供服務(wù)無關(guān)的個人信息,,“強制授權(quán)、過度索權(quán),、超范圍收集個人信息”大量存在,。其三,人工智能應(yīng)用不當導致了侵權(quán),,致使人工智能不完全可信,。其四,人工智能治理的技術(shù)使用還存在與其宣示的價值取向不一致的情形,,損害了人工智能發(fā)展的價值基礎(chǔ),。其五,規(guī)制人工智能的法律還不可信,。 (二)人工智能法為什么要強調(diào)信任 信任,,是人際關(guān)系得以長久維系的橋梁,是社會關(guān)系得以拓展的基礎(chǔ),,是社會發(fā)展的內(nèi)在條件,,更是建立高效社會組織的基本前提。信任是社會合作得以進行的基礎(chǔ),。信任成功與否取決于信任拓展范圍的大小,。人工智能技術(shù)的發(fā)展程度,不僅是由技術(shù)決定的,,而且是由規(guī)制人工智能的倫理,、法律等規(guī)范決定的。那些真正發(fā)展得良好的技術(shù),,必定也是法律保障有力,、遵循了良好倫理規(guī)范的技術(shù)。 人工智能獲得社會信任的法律基礎(chǔ) (一)人工智能的信任需要法律來保障 其一,,傳統(tǒng)社會基于血緣等關(guān)系構(gòu)建了人際信任,,人與人之間的信任多建立在熟人關(guān)系基礎(chǔ)上,。其二,到近現(xiàn)代社會,,法律力圖建構(gòu)的是一種打破血緣關(guān)系,、促進陌生人合作的普遍信任機制。現(xiàn)代社會共同體合作,,主要建立在平等交換,、契約自由基礎(chǔ)上。其三,,人工智能時代的信任須建立在人工智能技術(shù)安全,、確定性的法律管控和社會倫理引領(lǐng)的基礎(chǔ)上。 (二)捍衛(wèi)現(xiàn)代法治的傳統(tǒng)和公民的基本權(quán)利系確保人工智能可信的關(guān)鍵 人們對人工智能技術(shù)的信賴,,建立在人工智能技術(shù)的安全性,、保障和規(guī)制人工智能的法律制度的正當性、規(guī)制人工智能發(fā)展的制度的價值正義性,、人工智能技術(shù)的實踐運作對人類基本價值追求和人的基本權(quán)利維護的有效性的基礎(chǔ)上,。在支撐人工智能信任的技術(shù)維度、法律維度,、倫理維度和實踐維度中,,最為關(guān)鍵的是為人工智能發(fā)展設(shè)定法律監(jiān)管標準。 可信人工智能法律構(gòu)建的倫理基礎(chǔ)與可信特征 包括我國在內(nèi)的許多國家均將“可信”作為人工智能的核心倫理原則,,而“正當性”則是保障人工智能可信法律構(gòu)建的基礎(chǔ),。 (一)正當性是保障人工智能可信法律構(gòu)建的倫理基礎(chǔ) 全球關(guān)于人工智能治理可信問題的關(guān)注最初是在倫理文件中表達的。雖然存在一些爭議,,但是國際社會在“可信賴的人工智能”“負責任的人工智能”等核心理念上可能會達成一致,。可信被很多國家人工智能倫理確認為了一項基本倫理原則,,這一原則的提出,,是為了解決人工智能的價值對齊問題,即確保人工智能的目標與人類的目標一致,,使其“行為和決定符合人類的價值,、目標,、道德考量”,。但是,單純從倫理準則角度構(gòu)建人工智能的可信存在諸多問題:(1)全球關(guān)于人工智能治理存在諸多爭議,,不同準則之間的沖突日益凸顯,,如“普惠發(fā)展與隱私保護”“安全可靠與非歧視要求的沖突”等;既有準則規(guī)范可能由私人部門提出,,實際上是抵制政府監(jiān)管的借口等,。(2)作為倫理準則的可信標準,,主要是一種倡導性、自律性準則,,缺乏有效的監(jiān)督執(zhí)行機制,,強制性程度不足;準則的表達多采概括性概念,,可操作性不強,。因而,國家立法所要做的工作就是,,將倫理準則轉(zhuǎn)化為法律準則,,并通過更加具體的技術(shù)規(guī)則和法律規(guī)則設(shè)計,保障可信準則在人工智能產(chǎn)品或服務(wù)的研究,、開發(fā),、設(shè)計、部署,、使用,、監(jiān)管等具體環(huán)節(jié)得到落實。 (二)現(xiàn)行可信人工智能的評估標準 何積豐院士提出,,人工智能的可信特征包括四個方面:(1)魯棒性,,即對未知情況具備一定的應(yīng)對能力;(2)自我反省,,即對自身性能或錯誤能夠有所感知,;(3)自適應(yīng),即能夠成為通用的系統(tǒng),,能被應(yīng)用到新的環(huán)境,;(4)公平性,如應(yīng)防止被不當力量訓練為種族歧視的智能,。有學者提出了可信人工智能系統(tǒng)的質(zhì)量框架,,包括:(1)尊重人類自治原則,含人權(quán)代理與監(jiān)督,。這是最為重要的原則,,人工智能應(yīng)當賦予人類新的權(quán)利而不是取代人類,且處于人類控制之下,,不對人類基本權(quán)利或健康造成損害,。(2)傷害預防原則,包括魯棒性,、穩(wěn)定性,、安全性(包括保密性、完整性,、可用性),、可靠性,、可問責性、隱私性,、可重復性,、準確性等。(3)可解釋性原則,,包括透明性,、可解釋性。(4)公平性原則,,即確保群體或者個體不受偏見或歧視,。(5)一般軟件質(zhì)量屬性,如兼容性,、可維護性,、功能適用性、可移植性,、性能效率,、易用性等。 可信人工智能發(fā)展對法律構(gòu)建提出的要求 (一)保障可信人工智能發(fā)展的多元路徑與法律路徑 保障可信人工智能發(fā)展的路徑是多元的,,大致包括四個方面,。(1)側(cè)重行業(yè)技術(shù)保障的路徑。如中國信息通信研究院和京東探索研究院通過對全球范圍內(nèi)已經(jīng)發(fā)布的84份政策文件按照詞頻進行梳理發(fā)現(xiàn),,當前人工智能治理原則已經(jīng)收斂在“透明性,、安全性、公平性,、可責,、隱私保護等五個方面”,支撐可信的技術(shù)包括“穩(wěn)定性技術(shù),、可解釋性技術(shù),、隱私保護技術(shù)、公平性技術(shù),、可視化技術(shù)”等,。(2)技術(shù)認證的客觀標準與倫理價值評價的主觀標準結(jié)合的路徑。(3)人工智能的風險防控路徑,。(4)法律,、倫理、技術(shù)結(jié)合的路徑,。2019年,,歐盟人工智能高級別專家組發(fā)布了《可信人工智能的倫理指南》,提出人工智能在整個生命周期中需要滿足三個條件:合法性,,即可信人工智能應(yīng)當依法合規(guī),;道德性,即人工智能發(fā)展要符合道德原則,、價值觀,;穩(wěn)健性,即人工智能發(fā)展應(yīng)避免造成無意的損害或負面影響,。這實際上提出了保障人工智能可信發(fā)展的綜合路徑,。 為人工智能設(shè)定法律標準,實際上是為人工智能的研究者,、開發(fā)者,、部署者等設(shè)定最為基本的標準,并通過法律的強制執(zhí)行性推動各項標準的落實,,以防人工智能的發(fā)展偏離人類追求的價值目標,,實現(xiàn)對人工智能產(chǎn)業(yè)發(fā)展的規(guī)制、引領(lǐng)作用,。 (二)可信人工智能對法律提出的期待 可信是一種文化,,一種基于技術(shù)發(fā)展而形成的人對人工智能的認知和信任狀態(tài)。為了保障人工智能的可信發(fā)展,,法律制度的創(chuàng)設(shè)或者調(diào)整應(yīng)當遵循一系列外在準則和內(nèi)在準則,。 1.可信人工智能法律構(gòu)建應(yīng)遵循的外在準則 外在準則構(gòu)成了人工智能發(fā)展的國家社會目標,意在維護國家社會的福祉和法律的基本價值,,是人工智能長遠發(fā)展的基本準則,。外在準則主要是一種理念,它無法通過人工智能技術(shù)而直接得到落實,,但它可以成為評判人工智能技術(shù)發(fā)展是否正當?shù)脑獪蕜t,,是人工智能發(fā)展的總的引領(lǐng)性準則。 其一,,以人為本,,捍衛(wèi)人的基本權(quán)利。人工智能立法堅持以人為本,,就應(yīng)當保護個人信息和數(shù)據(jù)等數(shù)據(jù)權(quán)利,,保護人格權(quán)、人的自主決策(自治權(quán))和人類的主體性,,還應(yīng)當重視對社會弱勢群體的權(quán)益保護,。發(fā)展以人為本的人工智能,既應(yīng)從技術(shù)發(fā)展的角度來設(shè)定制度,,還應(yīng)從人的基本權(quán)利的角度規(guī)制人工智能技術(shù),。以人為本還應(yīng)當認真考量新產(chǎn)業(yè)發(fā)展對傳統(tǒng)產(chǎn)業(yè)帶來的沖擊,如人工智能發(fā)展對傳統(tǒng)產(chǎn)業(yè)領(lǐng)域的就業(yè)替代,,就是一個需要高度關(guān)注的問題,。以人為本的理念與憲法確定的人的基本權(quán)利之間具有密切的聯(lián)系,。 其二,人類主導原則,。人類主導原則是從人與機器關(guān)系的最終意義上說的,。因為人工智能在很多方面代替人進行道德選擇和決策,但智能系統(tǒng)要為人類做決定,,不能脫離人類倫理指導,。當人工智能的決定不符合人類需要的時候,人類可以取代人工智能做出決定,。人類主導原則還要求,,人工智能的設(shè)定,還應(yīng)當尊重國別文化的多元性,、尊重個體差異,,并采取措施防止“人類對機器人的過度依賴”。 其三,,技術(shù)中立原則,。技術(shù)中立原則是設(shè)計人工智能法律制度時應(yīng)遵循的一項前置性原則。例如,,如果在交通事故中對普通駕駛?cè)税凑者^錯責任進行歸責,,而對人工智能汽車采取嚴格責任原則予以歸責并要求車主承擔交通事故責任,那么就背離了技術(shù)中立原則,,而適用過錯原則可能是妥當?shù)摹?2.可信人工智能法律制度構(gòu)建的內(nèi)在準則 內(nèi)在準則主要是法律技術(shù)性準則,,這些準則大多可通過人工智能的技術(shù)設(shè)計、改進而得以落實,。內(nèi)在準則構(gòu)成了人工智能法律的操作性準則,。 其一,透明原則,。人工智能的透明,,首先是為了保障公民的知情權(quán),讓人們了解人工智能是如何運作的,。透明原則是為了防止人工智能被運用于不法目的或不正當目的,,有助于增強人的自主性,不透明的人工智能難以獲得人的信任,。 其二,,安全原則。首先應(yīng)確保網(wǎng)絡(luò)安全,、數(shù)據(jù)安全與算法安全,。(1)可信意味著必須降低人工智能風險,采用“強制性標準”對風險進行管控,且風險管控措施應(yīng)符合比例原則,,不能向人工智能開發(fā)者提出過高的要求(歐盟人工智能法第64部分),。(2)對風險宜進行分類管控或是分級管控。如2024年歐盟發(fā)布的人工智能法案將人工智能的風險分為四級,,采取不同的限制措施,。中國的人工智能法(學者建議稿)則將人工智能分為關(guān)鍵領(lǐng)域與一般領(lǐng)域進行管控,,對關(guān)鍵領(lǐng)域進行重點管控,。 其三,公平原則,。核心是,,在人工智能的模型訓練中,排除那些明顯存在或者隱性存在文化偏見,、性別歧視或種族歧視的數(shù)據(jù)集,。 其四,隱私保護原則,。隱私被侵犯,,自然人的感知最為直接,顯然,,一個無法保護隱私利益的人工智能,,是無法被人們接受的。 其五,,可問責原則,。確保人工智能的部署、使用產(chǎn)生的法律責任是可問責的,。問責是對侵權(quán)者的追責,,也是對受害者的救濟。 保障人工智能可信發(fā)展的具體法律制度 (一)設(shè)計,、評估與測試制度 其一,,設(shè)計階段的價值對齊制度。(1)法律應(yīng)當將價值對齊作為一項基本義務(wù)賦予人工智能設(shè)計者,。(2)人工智能在開發(fā)階段就應(yīng)注意防止偏見和歧視,。首先,識別人工智能必須遵守的倫理價值和規(guī)范,,其次,,將這些規(guī)范通過程序編碼寫入人工智能系統(tǒng),最后,,為了驗證人工智能是否與特定價值和規(guī)范兼容,,應(yīng)當對人工智能的規(guī)范和價值的有效性進行評估。 其二,評估制度,。人工智能開發(fā)者,、提供者在開發(fā)、提供人工智能產(chǎn)品和服務(wù)前,,可自行或委托第三方機構(gòu)對數(shù)據(jù)質(zhì)量,、潛在偏見歧視、科技倫理審查情況,、公共利益影響,、保護措施等內(nèi)容進行安全風險評估。 其三,,人工智能的安全測試制度,。(1)為了保證安全,應(yīng)建立密碼技術(shù)管理制度,,實現(xiàn)可信計算和可信驗證,。(2)設(shè)立沙盒監(jiān)管制度,強化安全測試和安全風險監(jiān)管,。(3)人工智能提供者對人工智能生成內(nèi)容的標示制度,。 (二)建立針對人工智能領(lǐng)域的監(jiān)督制度 (1)采用“憲法性AI”的思路,用人工智能監(jiān)督人工智能,,用“一個從屬的AI模型評估主模型的輸出是否遵循了特定的‘憲法性’原則(即原則或規(guī)則清單),,評估結(jié)果被用于優(yōu)化主模型”。目的在于推進價值對齊,,將對可信人工智能影響最大的法律原則,,落實在人工智能發(fā)展技術(shù)中。雖然人工智能監(jiān)督人工智能是高效的,,但考慮到人工智能法律監(jiān)督僅處在初期,,故設(shè)置針對人工智能法律監(jiān)督的人類標注員依然是必要的、重要的,。(2)分級監(jiān)督制度,。針對人工智能決策,針對性地建立一級監(jiān)督制度或二級監(jiān)督制度,。一級監(jiān)督制度針對部分自動化決策,,即把人工智能決策作為專業(yè)人員決策的支持理由,決策最終由人類來選擇,;此等情形下,,人工智能決策是人類決策的組成部分。二級監(jiān)督針對的是完全自動化決策,,即在人工智能作出決定后,,人類對智能化作出的決策進行監(jiān)督和糾正,。總之,,“一級監(jiān)督在決策過程中具有構(gòu)成性作用,,而二級監(jiān)督對一級監(jiān)督進行檢查和控制”。(3)隱私保護監(jiān)督制度,。(4)權(quán)力制約監(jiān)督制度,。 (三)完善人工智能的責任制度 其一,人工智能的使用者為了安全,、放心,,當然期望人工智能的開發(fā)或銷售企業(yè)能夠承擔起全部責任。其二,,在法律責任設(shè)定上,,“應(yīng)輔以問責框架,,包括免責聲明以及審查和補救機制等,,以確保在開發(fā)、部署和使用之前和之后對人工智能系統(tǒng)及其結(jié)果負責和問責”,。其三,,刑法應(yīng)增設(shè)相關(guān)責任條款,將對非法訪問AI或從事黑客攻擊的嚴重行為,、讓人工智能運行實行犯罪的使用惡意軟件的行為納入刑法調(diào)整范圍,。 結(jié)語 可信人工智能治理進程中的法律制度的構(gòu)建,應(yīng)以技術(shù)路徑為基礎(chǔ),,融合倫理準則,,溝通人工智能發(fā)展的外在準則和內(nèi)在準則,捍衛(wèi)現(xiàn)代法治傳統(tǒng),,保障憲法確認的公民的基本權(quán)利,;同時,應(yīng)當處理好人工智能發(fā)展中國際性與地方性,、市場邏輯和治理邏輯,、監(jiān)管的包容與審慎、權(quán)力制約與權(quán)利保護,、道義與理性等關(guān)系,。

    2025-03-19
  • 我校在第二屆全國大學生職業(yè)規(guī)劃大賽陜西賽區(qū)決賽中創(chuàng)佳績

    近日,第二屆全國大學生職業(yè)規(guī)劃大賽陜西省賽決賽圓滿落幕,,我校學子在此次比賽中表現(xiàn)卓越,,斬獲4銀1銅的佳績。新聞傳播學院(藝術(shù)學院)馮馨儀和公安學院(公共安全法學院)朱金帝獲得就業(yè)賽道高教研究生組銀獎,,國家安全學院(反恐怖主義法學院)沈楚楚和民商法學院王茜雨獲得就業(yè)賽道高教本科生組銀獎,,新聞傳播學院(藝術(shù)學院)李星穎獲得成長賽道高教本科生組銅獎,。 本次大賽以“筑夢青春志在四方,規(guī)劃啟航職引未來”為主題,,分為就業(yè)賽道和成長賽道,。大賽自2024年10月啟動以來,全省大學生積極參與,,累計報名學生42.64萬人,,我校3000余名學生報名參賽。招生就業(yè)處聯(lián)合各學院,,精心策劃,、認真籌備,經(jīng)過院賽,、校級復賽,、校級決賽和省級復賽等環(huán)節(jié)層層選拔,最終我校5名學生入圍陜西省賽決賽,。備賽期間,,招生就業(yè)處精心組織,各有關(guān)學院密切配合,,通過開展專題輔導,、模擬比賽、經(jīng)驗交流等環(huán)節(jié),,全方位助力學生備賽,,有效提升了學生的職業(yè)規(guī)劃能力與參賽能力。 學校將圍繞 “以賽賦能,、以賽提質(zhì),、以賽拓崗”的理念,結(jié)合不同專業(yè)發(fā)展方向,,開展多樣化的職業(yè)生涯規(guī)劃活動,,增強學生對職業(yè)世界的認知與探索。同時持續(xù)聚焦賽事成果轉(zhuǎn)化,,充分發(fā)揮大賽在拓展就業(yè)渠道,、優(yōu)化就業(yè)服務(wù)方面的作用,做深做實就業(yè)市場開拓工作,,引導學生精準對接市場需求,,積極適應(yīng)就業(yè)環(huán)境變化,全力以赴助推畢業(yè)生實現(xiàn)高質(zhì)量充分就業(yè),,不斷開創(chuàng)學校就業(yè)工作新局面,。 (供稿:招生就業(yè)處 撰稿:薛倩 審核:孫靜)

    2025-03-11
  • 經(jīng)濟法在民商事案件中的應(yīng)用

    報告主題: 經(jīng)濟法在民商事案件中的應(yīng)用 報告人:薛克鵬,中國政法大學民商經(jīng)濟法學院,,教授,,博士生導師,。         中國經(jīng)濟法學研究會常務(wù)理事、中國商業(yè)法研究會常務(wù)理事兼學術(shù)委員會主任,、         北京經(jīng)濟法研究會常務(wù)理事,、中國地質(zhì)礦產(chǎn)經(jīng)濟學會礦產(chǎn)資源法分會副秘書長、         中國民主同盟中央法制委員會委員,、第五屆北京市昌平區(qū)政協(xié)委員,。 舉辦單位:經(jīng)濟法學院 報告地點:雁塔校區(qū)3號教學樓3403 報告時間:2025年03月11日09:00至12:00

    2025-03-11