“智能(néng)+”更應重視安全挑戰
2019-03-26 08:55:23

觀衆在首屆中國國際智能(néng)産業博覽會上(shàng)體驗醫療人(rén)工智能(néng)産品。

  新(xīn)華社發

       核心閱讀

  人(rén)工智能(néng)技術和應用飛速發展,在推動經濟社會創新(xīn)發展的同時,也(yě)帶來安全、倫理(lǐ)、法律法規等方面的風險挑戰。

  随着數據越來越多被收集,應用場景增加,用戶個人(rén)信息洩露的風險也(yě)随之提升。

  人(rén)工智能(néng)的研究和應用要有倫理(lǐ)和法律界限,即應以人(rén)類的根本利益和責任爲原則。

  

  剛剛結束的全國兩會上(shàng),“拓展‘智能(néng)+’”首次被寫入今年的《政府工作(zuò)報告》,作(zuò)爲未來的重要基礎性技術,人(rén)工智能(néng)已連續三年出現在《政府工作(zuò)報告》中。可以預見,随着人(rén)工智能(néng)、大數據的深入應用,生(shēng)産生(shēng)活的數字化(huà)轉型是大勢所趨。

  人(rén)們在擁抱人(rén)工智能(néng)、邁向數字社會的同時,也(yě)需要正視人(rén)工智能(néng)等新(xīn)技術應用在安全、倫理(lǐ)、法律法規、社會治理(lǐ)等方面的挑戰。隻有未雨綢缪,研判和防範潛在風險,才能(néng)安享“智能(néng)+”的時代紅利。

  人(rén)工智能(néng)應用方興未艾,同時也(yě)帶來安全風險隐患

  前不久,一(yī)項人(rén)工智能(néng)深度換臉技術引發争議。原來,這項技術能(néng)做到幾乎毫無痕迹地給視頻中的人(rén)物“換臉”,引發人(rén)們對隐私和肖像權被侵犯的擔憂。更深的擔憂在于,如(rú)果這一(yī)技術被濫用,是否意味着大量視頻會被“移花接木”?

  今年全國兩會上(shàng),人(rén)工智能(néng)、大數據等技術應用帶來的安全風險,成爲代表委員關注的焦點之一(yī)。全國政協委員、360集團董事(shì)長兼首席執行官周鴻祎就(jiù)表示,安全應該成爲人(rén)工智能(néng)發展的基礎與前提。全國人(rén)大代表、蘇甯控股集團董事(shì)長張近東也(yě)提出,數據安全是數字中國建設的重中之重,發展高質量的數字經濟,需要加強對數據的安全保護和合規共享。

  從信息安全角度看,當前人(rén)工智能(néng)應用的安全風險點主要有哪些(xiē)?

  中國信息通信研究院移動安全聯盟秘書長楊正軍說,人(rén)工智能(néng)高度依賴海量數據的采集和訓練分(fēn)析。随着數據越來越多被收集,應用場景增加,用戶個人(rén)信息洩露的風險也(yě)随之提升。

  “人(rén)工智能(néng)算(suàn)法不僅能(néng)直接采集用戶個人(rén)信息,也(yě)會深度挖掘分(fēn)析看似不相關的數據。”楊正軍介紹,他們開展的一(yī)項調研顯示,當前濫用個人(rén)信息現象較爲普遍。同時,人(rén)工智能(néng)及大數據場景下(xià)無所不在的數據收集、專業化(huà)多樣化(huà)的數據處理(lǐ)技術,使得信息主體難以了(le)解、控制其信息是如(rú)何被收集和利用的。信息安全保護已經成爲人(rén)工智能(néng)發展的重要課題。

  專家表示,技術本身(shēn)是中性的,隻要利用得當,人(rén)工智能(néng)也(yě)能(néng)用來提升網絡安全水平。比如(rú),人(rén)工智能(néng)在識别惡意代碼方面就(jiù)很有優勢。

  北京神州綠盟科技有限公司安全研究員吳子(zǐ)建說,惡意代碼往往是基于一(yī)些(xiē)開源代碼修改而成,它們通常有相似的行爲模式。借助人(rén)工智能(néng)技術訓練的檢測工具,能(néng)夠比較高效地發現惡意代碼。

  人(rén)工智能(néng)技術也(yě)普遍用于企業内網安全防護。吳子(zǐ)建介紹,傳統的防護手段是在網絡的入口處設置防禦措施,但(dàn)内網之間很少進行防禦。采用人(rén)工智能(néng)等技術手段關聯數據,可以有效檢測内網中的異常。與傳統的方法相比,這種方法不僅能(néng)發現已知威脅,還可以檢測到未知風險。

  吳子(zǐ)建認爲,業内還需要做更多深入的研究,不斷提升人(rén)工智能(néng)在安全防護上(shàng)的價值。

  應提前研判智能(néng)時代的法律倫理(lǐ)風險,引導人(rén)機良性合作(zuò)

  人(rén)工智能(néng)的應用越來越多,衍生(shēng)出一(yī)系列倫理(lǐ)、法律難題。比如(rú),無人(rén)駕駛汽車發生(shēng)交通事(shì)故時如(rú)何界定責任,醫療外科手術機器(qì)人(rén)出現意外怎樣處置……

  “人(rén)工智能(néng)的研究和應用要有倫理(lǐ)和法律界限,即應以人(rén)類的根本利益和責任爲原則,以實現人(rén)類根本利益爲終極目标。這一(yī)要求也(yě)是人(rén)工智能(néng)和人(rén)的關系決定的。”中國人(rén)民(mín)大學法學院副教授郭銳認爲。

  “當前技術條件下(xià),智能(néng)機器(qì)尚未具備倫理(lǐ)決策的能(néng)力,但(dàn)其決策會引發有倫理(lǐ)意義的後果。”郭銳認爲,通常法律針對的是能(néng)夠遵循這些(xiē)原則的主體,也(yě)就(jiù)是自然人(rén)或者法律看作(zuò)是主體的組織(法人(rén)),但(dàn)考慮到人(rén)工智能(néng)的特征是對人(rén)的智能(néng)的模拟、延伸和擴展,因此倫理(lǐ)原則應當适用于人(rén)工智能(néng)系統。

  北京師範大學哲學學院教授田海平認爲,人(rén)工智能(néng)的主體構成不是孤立的個體,而是多種關聯形态的總和。“人(rén)工智能(néng)的構成主體分(fēn)爲研發者(包括算(suàn)法的開發者)、生(shēng)産商(shāng)、運營商(shāng)、電信網絡服務商(shāng)等。一(yī)旦發生(shēng)交通或醫療事(shì)故,由于無法找到某個确定的責任主體,給責任界定帶來很大困難,因此需要确立代理(lǐ)人(rén)來界定責任與權利。”

  近年來,學界和産業界日益重視人(rén)工智能(néng)中的倫理(lǐ)與法律問題,并推動制定相關技術标準及社會規範。專家表示,人(rén)工智能(néng)倫理(lǐ)法律涉及科學界、企業界,哲學、法學等多個領域,有必要成立應對人(rén)工智能(néng)發展的聯盟組織,吸納各方面的力量,共同推進相關研究。

  郭銳建議,要考慮到人(rén)工智能(néng)開發和部署過程中的權責歸屬,通過爲技術開發者、産品生(shēng)産者或者服務提供者、使用者界定權利和義務,讓自動駕駛、無人(rén)機等人(rén)工智能(néng)應用安全落地。

  專家表示,人(rén)工智能(néng)大規模進入人(rén)們生(shēng)活之前,還應建立相對統一(yī)的風險評估指标體系,設立具體、可操作(zuò)的指标,爲相關研究及應用提供指引。

  專家特别提醒,人(rén)和機器(qì)各有優勢,要互相了(le)解才能(néng)實現人(rén)機協作(zuò),但(dàn)人(rén)還是人(rén)機關系的主導者。惟其如(rú)此,才能(néng)将人(rén)工智能(néng)引向人(rén)機合作(zuò)的良性發展道路(lù)。

  全球人(rén)工智能(néng)法律治理(lǐ)面臨共同難題,當前應加強個人(rén)隐私安全管理(lǐ)

  針對人(rén)工智能(néng)應用在安全、倫理(lǐ)等領域的潛在威脅,世界各國已經開始了(le)相關法律治理(lǐ)研究。

  楊正軍介紹,各國對人(rén)工智能(néng)風險的關注重點和重視程度有所不同。以安全爲例,美國關注人(rén)工智能(néng)對國家安全的影響,2018年3月(yuè)(yuè)美國國會發起提案,建議成立國家人(rén)工智能(néng)安全委員會,并将制定相關法案;歐盟和英國關注人(rén)工智能(néng)對隐私、就(jiù)業及倫理(lǐ)的影響;俄羅斯、以色列、印度則重點關注人(rén)工智能(néng)在國防領域的應用以及對軍事(shì)安全的影響。

  北京師範大學刑科院暨法學院副教授、中國互聯網協會研究中心秘書長吳沈括表示,在規範人(rén)工智能(néng)發展方面,我國起步較早。2017年7月(yuè)(yuè),國務院頒布《新(xīn)一(yī)代人(rén)工智能(néng)發展規劃》;2017年12月(yuè)(yuè),工信部發布《促進新(xīn)一(yī)代人(rén)工智能(néng)産業發展三年行動計劃(2018—2020年)》,都對人(rén)工智能(néng)産業的規範發展提出了(le)要求。

  “這些(xiē)政策能(néng)夠引導和助推相關産業的發展。關于人(rén)工智能(néng)技術标準,我國也(yě)發布過一(yī)些(xiē)文件。然而,當前立法中對于人(rén)工智能(néng)帶來的安全問題還存在比較大的空白,這也(yě)是全球人(rén)工智能(néng)的法律治理(lǐ)面臨的共同難題。”吳沈括說。

  随着人(rén)工智能(néng)應用的深入,其附屬的相關風險也(yě)日益凸顯,加強對人(rén)工智能(néng)相關的法律治理(lǐ)至關重要。人(rén)工智能(néng)法律治理(lǐ)呈現出哪些(xiē)趨勢,現實中又有哪些(xiē)需要迫切注意的問題?

  吳沈括認爲,人(rén)工智能(néng)立法治理(lǐ)上(shàng)可能(néng)會呈現出三個趨勢:一(yī)是立法将更加細化(huà),更有針對性。比如(rú),針對自動駕駛、機器(qì)人(rén)、生(shēng)物識别等領域頒布一(yī)些(xiē)規範性文件,立法監管也(yě)會更加多元;二是立法将與産業特性緊密結合;三是立法将以規範爲主,監管則重在爲産業發展提供指引。

  “由于法律往往存在一(yī)定的滞後性,考慮到人(rén)工智能(néng)等新(xīn)技術應用前景廣闊,立法需要預留一(yī)定的空間,盡量實現産業應用與風險前瞻的恰當平衡。在确定監管什(shén)麽内容、如(rú)何監管以及怎樣執行時,要把握好(hǎo)(hǎo)力度,不宜影響産業的發展活力。”吳沈括說。

  楊正軍說,從行業調研情況來看,當前應該加強個人(rén)隐私安全管理(lǐ)。他建議,隐私保護應從立法監管和技術能(néng)力提升兩方面入手:一(yī)方面,針對我國個人(rén)信息保護法律條款分(fēn)散、不成體系的現狀,加快(kuài)統一(yī)立法,明确數據不當收集、使用、洩露等的責任,同時也(yě)要界定好(hǎo)(hǎo)數據歸屬權等問題;另一(yī)方面,應加強新(xīn)技術在個人(rén)隐私保護方面的應用。

  數據的合理(lǐ)合法收集是數據利用的前提。專家表示,我們不應回避智能(néng)化(huà)與隐私安全保護的沖突,而應積極作(zuò)爲,找到智能(néng)時代技術應用與風險防護的最大公約數,爲智能(néng)生(shēng)活保駕護航。《 人(rén)民(mín)日報 》( 2019年03月(yuè)(yuè)25日 19 版)